6,8 MB, PDF-File
Transcription
6,8 MB, PDF-File
Fachhochschule Wiesbaden, Fachbereich Physikalische Technik SCHOTT Glas Mainz, Abteilung Forschung und Technologieentwicklung Veredelungstechnik Diplomarbeit von Michael Stelzl zum Thema: Einsatz von Bildverarbeitungssystemen in der Produktionsautomatisierung am Beispiel der Glasindustrie Januar 2001 Referent: Prof. Dr. rer. nat. Gerd Küveler, FH Wiesbaden Korreferent: Dipl. Ing. (FH) Stephan Drozniak, SCHOTT Glas Inhaltsverzeichnis 1 Einleitung ............................................................................................................4 2 Ziel der Diplomarbeit.........................................................................................5 3 Komponenten eines Bildverarbeitungssystems ...............................................6 3.1 Objekte ....................................................................................................................... 7 3.2 Beleuchtung ............................................................................................................... 7 3.2.1 3.2.2 3.2.3 3.2.4 3.2.5 3.2.6 3.2.7 3.2.8 3.2.9 3.2.10 3.2.11 3.2.12 3.2.13 3.2.14 Diffuses Auflicht ............................................................................................................ 9 Diffuses Durchlicht......................................................................................................... 9 Auflicht Dunkelfeld ...................................................................................................... 10 Durchlicht Dunkelfeld .................................................................................................. 10 Kombinationen von Beleuchtungen.............................................................................. 11 Telezentrische Beleuchtung .......................................................................................... 12 Strukturierte Beleuchtung ............................................................................................. 12 Lichtschnittverfahren .................................................................................................... 12 Farbspektrum der Beleuchtung ..................................................................................... 13 Fremdlicht..................................................................................................................... 14 Beugungseffekte ........................................................................................................... 15 Verwendung von polarisiertem Licht ........................................................................... 16 Verminderung von Reflexionen.................................................................................... 17 Leuchtmittel.................................................................................................................. 18 3.3 Optik......................................................................................................................... 20 3.3.1 Abbildungsgesetze ........................................................................................................ 20 3.3.2 Blende........................................................................................................................... 21 3.3.3 Tiefenschärfe ................................................................................................................ 22 3.3.4 Bildfeldgröße ................................................................................................................ 23 3.3.5 Minimaler Arbeitsabstand............................................................................................. 24 3.3.6 C-Mount- und CS-Mount-Objektive............................................................................. 25 3.3.7 Objektivformat.............................................................................................................. 25 3.3.8 Abbildungsfehler .......................................................................................................... 25 3.3.8.1 Verzeichnung ........................................................................................................... 26 3.3.8.2 Farbfehler................................................................................................................. 26 3.3.8.3 Bildwölbung............................................................................................................. 26 3.3.9 Objektivtypen ............................................................................................................... 27 3.4 Sensor ....................................................................................................................... 29 3.4.1 3.4.2 3.4.3 3.4.4 3.4.5 CCD-Chip ..................................................................................................................... 29 Videonorm .................................................................................................................... 29 Eigenschaften der Sensoren .......................................................................................... 31 Zeilenkamera ................................................................................................................ 31 CMOS-Chip.................................................................................................................. 32 3.5 Bilderzeugung.......................................................................................................... 32 3.5.1 3.5.2 3.5.3 3.5.4 3.5.5 Signalumwandlung ....................................................................................................... 32 Abtastfehler................................................................................................................... 33 Pixeltakt ........................................................................................................................ 34 Bildfehler ...................................................................................................................... 35 Digitale Systeme........................................................................................................... 36 3.6 Auswerteeinheit ....................................................................................................... 36 3.6.1 Bildvorverarbeitung ...................................................................................................... 36 3.6.2 Punktoperationen .......................................................................................................... 37 3.6.2.1 Look-Up Tabelle...................................................................................................... 37 3.6.2.2 Binarisierung............................................................................................................ 38 3.6.2.3 Lokale Operationen.................................................................................................. 40 3.6.3 Auswertung................................................................................................................... 43 3.6.3.1 Kantenerkennung ..................................................................................................... 43 3.6.3.2 Blobanalyse.............................................................................................................. 44 1 3.6.3.3 Mustererkennung ..................................................................................................... 44 3.6.3.4 Vorgehensweise bei der Erstellung von Prüfprogrammen....................................... 46 3.6.3.5 Genauigkeit der Algorithmen................................................................................... 47 3.7 Kommunikationseinheit.......................................................................................... 48 3.8 Reaktionseinheit ...................................................................................................... 48 3.9 Allgemeiner Aufbau eines Bildverarbeitungssystems.......................................... 49 4 Hard- und Software für Applikationen..........................................................50 4.1 Ansätze im Hardwareaufbau ................................................................................. 50 4.1.1 4.1.2 4.1.3 4.1.4 Intelligente Kamera....................................................................................................... 50 Kamera mit externer Auswertehardware ...................................................................... 52 PC-Kamera ................................................................................................................... 55 PC-basierte Systeme ..................................................................................................... 56 4.2 Softwarebibliotheken .............................................................................................. 56 4.2.1 4.2.2 Common Vision Blox (CVB) ....................................................................................... 57 Matrox Imaging Library ............................................................................................... 58 4.3 Parametrierbare Software...................................................................................... 59 4.3.1 4.3.2 NeuroCheck .................................................................................................................. 59 SAC-Coake ................................................................................................................... 59 5 Anlagenhersteller..............................................................................................61 6 Durchführung von Projekten ..........................................................................62 6.1 Lastenheft................................................................................................................. 62 6.2 Kontaktaufnahme ................................................................................................... 63 6.3 Alternative Technologien........................................................................................ 64 6.4 Bemusterung............................................................................................................ 64 6.5 Angebotsprüfung..................................................................................................... 65 6.6 Lieferantenauswahl................................................................................................. 65 7 Beispielprojekte ................................................................................................66 7.1 Winkelmessung Lichtleiterstab.............................................................................. 66 7.2 Konturenprüfung Armaturengläser...................................................................... 75 7.3 Automatische Fehlererkennung an ungeschliffenen Fernsehschirmen.............. 77 8 Ausblick.............................................................................................................81 9 Literatur- und Quellenverzeichnis..................................................................82 9.1 Quellen ..................................................................................................................... 82 9.2 weiterführende Literatur........................................................................................ 82 9.3 Fachvorträge............................................................................................................ 83 9.4 Fachmessen .............................................................................................................. 84 9.5 Linksammlungen zum Thema Bildverarbeitung ................................................. 84 9.6 Internetseiten ........................................................................................................... 84 9.7 Firmenverzeichnis ................................................................................................... 85 2 Selbständigkeitserklärung Ich versichere, die vorliegende Arbeit selbständig unter der Anleitung des Referenten und des Korreferenten durchgeführt und nur die angegebenen Referenzen und Hilfsmittel benutzt zu haben. Anmerkung: Die in dieser Diplomarbeit erwähnten Produkt- und Markennamen können Marken oder eingetragene Markennamen der jeweiligen Eigentümer sein. Sollten Schutzrechte verletzt worden sein, war dies nicht beabsichtigt. 3 1 Einleitung Die Automatisierung von Produktionsanlagen spielt in der heutigen Zeit eine immer größere Rolle. Im Zuge der Modernisierung solcher Anlagen müssen auch die ständig steigenden Qualitätsanforderungen an das hergestellte Produkt erfüllt werden. Die Anforderungen an die in der Produktion eingesetzten Messmittel wachsen daher stetig. Man ist auf der Suche nach immer besseren Techniken, die aber gleichzeitig noch flexibler und kostengünstiger werden sollen. Bei vielen Anwendungen ist eine mögliche Lösung dieses Problems der Einsatz von industriellen Bildverarbeitungssystemen. Sie sind oft billiger und flexibler als traditionelle Techniken oder machen eine Qualitätskontrolle im geforderten Umfang überhaupt erst möglich. Vereinfacht ausgedrückt wird bei diesen Systemen ein Objekt durch eine Kamera aufgenommen, das entstandene Bild elektronisch ausgewertet und ein Ergebnis ausgegeben. So kann z. B. überprüft werden, ob ein Produkt vorgegebene Qualitätskriterien erfüllt oder nicht. Aufbau und Einsatz solcher Bildverarbeitungssysteme sollen in dieser Diplomarbeit behandelt werden. 4 2 Ziel der Diplomarbeit Diese Arbeit wurde in Zusammenarbeit mit der Firma Schott Glas in Mainz erstellt. Eine Zielvorgabe war es, das Themengebiet Bildverarbeitung zusammenzufassen, um Mitarbeitern, die neu mit diesem Gebiet in Berührung kommen, ein Grundwissen zu vermitteln und einen Leitfaden für die Durchführung von Projekten an die Hand zu geben. Gleichzeitig sollte aber erreicht werden, dass diese Darstellung auch von Personen ohne spezielles Fachwissen leicht zu verstehen ist. So wird versucht, diese Zusammenstellung auf einem leicht verständlichen Level zu halten, ohne jedoch den theoretischen Hintergrund allzu sehr zu vernachlässigen. Dazu sollen auch viele Beispiele und Abbildungen helfen. Es werden zunächst allgemein die benötigten Teilkomponenten eines Bildverarbeitungssystems vorgestellt, deren Funktionsweise und die notwendigsten theoretischen Grundlagen erläutert. Anschließend werden die verschiedenen Ansätze beim Aufbau solcher Systeme gezeigt und deren Einsatzbereiche verglichen. Exemplarisch werden einige der typischen Auswertungsalgorithmen und ihre Verwendung vorgestellt. Im letzten Teil der Arbeit werden dann anhand einiger Projekte, die im Rahmen der Tätigkeit bei der Firma Schott Glas durchgeführt wurden, einzelne Schritte einer Projektplanung als Beispiel dargestellt, bei denen das zuvor zusammengetragene Wissen in der Praxis angewandt wurde. 5 3 Komponenten eines Bildverarbeitungssystems In diesem Kapitel werden zunächst die einzelnen Komponenten eines industriellen Bildverarbeitungssystems beschrieben. Dieses ist vom Aufbau her dem menschlichen Sehsystem sehr ähnlich. Betrachten wir ein Beispiel: Abb. 3-1: Der Mensch als Bildverarbeitungssystem Vorrausetzung für das Sehen ist das Vorhandensein von Licht. Es ist ohne Beleuchtung nicht möglich, die Dartscheibe zu sehen. Bei geeigneter Beleuchtung wird das Bild der Dartscheibe durch eine Linse und die Iris auf unsere Netzhaut abgebildet. Beim Auftreffen des Lichtes reagieren die Stäbchen bzw. die Zapfen, die sich auf der Netzhaut befinden, mit Reizen, die dann durch den Sehnerv an das Sehzentrum im Gehirn übermittelt werden. Dieses setzt die Reize zu einem Bild zusammen und stellt es für die Auswertung zur Verfügung. Nach der Auswertung durch das Gehirn werden Ergebnisse wie Wurfrichtung und Wurfstärke wiederum über Nerven an den Arm übermittelt. Diese Komponenten kann man in ähnlicher Weise auch in industriellen Bildverarbeitungssystemen wiederfinden: - Objekt Beleuchtung Optik Sensor Bilderzeugung Auswertung Kommunikation Reaktion Somit ergibt sich eine erste einfache Beschreibung: Ein vorhandenes Objekt wird beleuchtet und durch eine Optik auf einen Sensor abgebildet. Dieser muss das Licht in verwertbare Signale umwandeln, welche an die Bilderzeugung übertragen werden. Dort werden sie wieder zu einem Bild zusammensetzt, das einer Auswerteeinheit zur Verfügung gestellt wird. Sie errechnet ein Ergebnis, das dann über Kommunikationsschnittstellen an ein übergeordnetes System oder direkt an eine Reaktionseinheit übertragen wird. Diese führt die von dem Ergebnis abhängige Reaktion aus. 6 3.1 Objekte Alle Objekte, deren relevante Merkmale mit ausreichendem Kontrast erfassbar sind, können durch Bildverarbeitungssysteme untersucht werden. Die möglichen Anwendungszwecke sind annähernd unbegrenzt. Von kleinsten Strukturen bis hin zu sehr großen Objekten können unterschiedlichste Dinge erfasst werden. Einige Beispiele sollen hier aufgezählt werden. - In der Halbleiterindustrie werden Eigenschaften im Mikrometerbereich untersucht Massenartikel wie Zahnbürsten können erst durch Bildverarbeitung in dem geforderten Umfang auf Produktionsfehler überprüft werden. Für die Anfertigung von Maßanzügen kann der Körper eines Kunden mit Hilfe der Bildverarbeitung vollständig vermessen werden. Mit Robot-Vision-Systemen wird in Häfen die Lage von Überseecontainern bestimmt, um sie übereinander stapeln zu können. Diese Beispiele sind nur ein kleiner Auszug aus möglichen Anwendungen. Es sind sowohl 40 t schwere Container als auch mikroskopisch kleine Halbleiter als Objekt möglich. Dies macht die Bildverarbeitung zu einer universell einsetzbaren „Querschnittstechnologie“. 3.2 Beleuchtung Als Informationsträger der Bildverarbeitung dient Licht. Es handelt sich dabei um elektromagnetische Wellen, die mit dem Sensor in Wechselwirkung treten, welche abhängig von Eigenschaften des Lichtes sind. Mögliche Eigenschaften sind z. B.: - Wellenlänge Intensität Richtung Polarisation Die Eigenschaften des Lichtes sind in erster Linie von der Wahl der Lichtquelle abhängig, jedoch verändern sich die Eigenschaften durch Wechselwirkung mit dem Objekt. Das durch das Objekt beeinflusste Licht wird durch die Bildverarbeitung betrachtet. Diese Wechselwirkungen sind: - Brechung Reflexion Absorption Die Aufgabe der Beleuchtung ist es, die relevanten Merkmale so hervorzuheben, dass sie mit möglichst hohem Kontrast im Bild erscheinen. Ohne diesen Kontrast ist keine zuverlässige Signalverarbeitung möglich. Genau dies macht die Beleuchtung zu einer der wichtigsten Komponenten in der Bildverarbeitung, da sie maßgeblich die Bildqualität beeinflusst. Es sind nur Merkmale auswertbar, die auch im Bild zu sehen sind. Zum einen ist es fast unmöglich, Informationen, die bei der Bildaufnahme verloren gehen, wieder herzustellen. Zum anderen erspart eine sorgfältige Auswahl der Beleuchtung eine sonst vielleicht notwendige Bildvorverarbeitung, die wiederum Rechenleistung und somit auch Zeit und Geld in Anspruch nimmt. 7 Die Beleuchtung ist die Komponente, mit der sich am einfachsten der nötige Aufwand minimieren und die Erfolgsaussichten und die spätere Prozesssicherheit maximieren lassen. gut schlecht - geringer Kontrast der Schrift - für den Menschen lesbar - mit Bildverarbeitung nur durch höheren Aufwand lesbar - Kante nicht scharf abgebildet - Ungenauigkeit bei der Kantenantastung - kein Kontrast zwischen Einstellschraube und Gehäuse - Vermessung der Einstellschraube nicht möglich Abb. 3.2-1:Einfluss der Beleuchtung auf die Bildqualität Werksbilder der Firma VISION & CONTROL, Suhl Wegen der Bedeutung dieser Komponente sollen ihre Eigenschaften und theoretischen Grundlagen hier ausführlich erklärt werden. Am Markt ist eine Vielzahl von Beleuchtungsquellen in unterschiedlichsten Ausführungen erhältlich. Diese können wiederum in beliebig vielen verschiedenen Anordnungen verwendet werden. Die Variationsmöglichkeiten sind daher nahezu unbegrenzt. Eine kleine Auswahl an gebräuchlichen Beleuchtungen soll hier vorgestellt werden. Generell können Beleuchtungsanordnungen danach unterschieden werden, ob das entstandene Bild in der Summe eher hell oder dunkel ist. Dementsprechend wird ein Bild, das sehr viele dunkle Punkte hat und in dem die Merkmale wie z. B. Kanten hell erscheinen, als Dunkelfeldbeleuchtung und umgekehrt ein helles Bild, bei dem die Merkmale dunkel erscheinen als Hellfeldbeleuchtung bezeichnet. (Siehe Abb. 3.2-2 und 3.2-3) 8 Abb. 3.2-2: Dunkelfeldbeleuchtung Abb. 3.2-3: Hellfeldbeleuchtung Eine weitere Unterscheidungsmöglichkeit ist der Weg, den das Licht zwischen Beleuchtung über das Objekt zum Sensor zurücklegt. So wird unterschieden, ob ein Objekt im Durchlicht oder im Auflicht beleuchtet wird, d. h. ob ein Bild in Transmission oder in Reflexion aufgenommen wird. Je nach Verwendung von diffusem oder nicht diffusem Licht kann zwischen gerichteter und ungerichteter Beleuchtung differenziert werden. 3.2.1 Diffuses Auflicht Eine Flächenleuchte bestrahlt ein Objekt, bei dem z. B. eine Verschmutzung der Oberfläche andere optische Eigenschaften als die restliche Oberfläche zeigt. Die Kamera nimmt das reflektierte Licht auf. Zeigt die Verschmutzung eine geringere Reflexion und eine höhere Absorption, erscheint sie als dunkler Fleck in einem hellen Bild. Abb. 3.2-4: diffuses Auflicht Abb. 3.2-5: verschmutzte Oberfläche 3.2.2 Diffuses Durchlicht Die Kamera empfängt das Licht der Flächenleuchte, welches durch das Objekt teilweise absorbiert wird. Im Bild ist sozusagen der Schatten des Objektes zu erkennen. Diese Beleuchtung eignet sich sehr gut, um die Kontur von Teilen mit hoher Lichtabsorption mit hohem Kontrast hervorzuheben. Mit ihr kann z. B. an gestanzten Blechteilen überprüft werden, ob alle geforderten Bereiche ausgestanzt sind. Wird diese Beleuchtung ohne eine weitere Beleuchtung verwendet, gehen Informationen über die Oberfläche verloren, da diese vollständig schwarz erscheint. 9 Abb. 3.2-6: diffuses Durchlicht Abb. 3.2-7: Stanzteil im Durchlicht 3.2.3 Auflicht Dunkelfeld Das Licht einer gerichteten Beleuchtung wird an der Oberfläche des Objektes reflektiert. Der Winkel ist so gewählt, dass ohne Merkmale das reflektierte Licht die Kamera nicht erreicht und das Bild schwarz wird. Nur wenn Merkmale oder Fehler vorhanden sind, wird das Licht entweder gestreut oder in einem anderen Winkel reflektiert. So erscheinen die Merkmale als helle Bereiche mit hohem Kontrast. Diese Anordnung eignet sich sehr gut, um z. B. Kratzer oder Verschmutzungen an reflektierenden Oberflächen zu erkennen. Diese würden im Hellfeld nur einen schlechten oder sogar keinen Kontrast zeigen (siehe Abbildung Hellfeld). Als Beispiel sei hier die Kratzersuche an polierten Metall- oder Glasoberflächen erwähnt, wobei nur Informationen über eine Seite des Objektes erfassbar sind. Abb. 3.2-8: gerichtetes Auflicht Dunkelfeld Abb. 3.2-9: Armaturenglas im Auflicht Dunkelfeld 3.2.4 Durchlicht Dunkelfeld Die Eigenschaften dieser Beleuchtung sind denen des Auflichtes in Dunkelfeldanordnung sehr ähnlich. Auch hier wird eine gerichtete Beleuchtung benutzt, die aber in Transmission angeordnet ist. Der Winkel wird so gewählt, dass das Licht durch ein Objekt mit ausreichender Transparenz an der Kamera vorbeistrahlt. Vorhandene Merkmale, die den Lichtweg ändern, erscheinen im dunklen Bild als helle Bereiche. Da in dieser Anordnung durch das Objekt hindurch beleuchtet wird, erhält man Informationen über beide Seiten und das Volumen. Diese Anordnung eignet sich sehr gut, um in transparenten Materialien wie z. B. Flachglas Blasen, Steine, geschliffene Kanten, Kratzer, Staub oder ähnliche Merkmale zu finden. 10 Abb. 3.2-10: gerichtetes Durchlicht Dunkelfeld Abb. 3.2-11: Blasen in Glas mit Durchlicht Dunkelfeld 3.2.5 Kombinationen von Beleuchtungen Die hier beschriebenen Anordnungen führen nicht immer zum Ziel, da eine einzige Beleuchtung oft nicht alle Merkmale im Bild sichtbar machen kann. Auch dies soll an einem Beispiel verdeutlicht werden. Bei einem Wabenblech soll überprüft werden, ob die Oberseite abgerundet ist und die Stege die korrekte Stärke haben. Wird das Blech im diffusen Hellfeld Durchlicht betrachtet, ist die Kontur sehr gut zu erkennen und somit auch die Stärke der Stege, jedoch ist keine Information über die Oberseite zu gewinnen. Im gerichteten Hellfeld Auflicht können Informationen über die Oberseite gewonnen werden, nicht jedoch über die Kontur. Um beide Merkmale im Bild erkennen zu können, ist die Kombination beider Beleuchtungen notwendig. Objektiv A A-A A einfallendes Licht reflektiertes Licht Abb. 3.2-12:Skizze des Wabenblechs Abb. 3.2-14: diffuse Hellfeld Durchlicht Beleuchtung Abb. 3.2-13:Skizze des Strahlengangs Abb. 3.2-15: gerichtetes Auflicht Abb. 3.2-16: Kombination beider Beleuchtungen Werksbilder der Firma VISION & CONTROL, Suhl 11 3.2.6 Telezentrische Beleuchtung Eine besondere Form der gerichteten Beleuchtung ist die telezentrische Beleuchtung. Sie wird mit telezentrischen Optiken verwendet, die später erklärt werden. Bei dieser Bauart wird versucht, zur optischen Achse paralleles Licht zu erzeugen. Dies gelingt nur begrenzt, so dass diese Beleuchtungen eine geringe Apertur, d. h. einen geringen Öffnungswinkel zeigen. Diese Art von Beleuchtung wird für genaue Vermessungsaufgaben wie z. B. bei Präzisionsdrehteilen verwendet. Der geringe Öffnungswinkel sorgt für scharfe Kantenübergänge, da der „Schatten“ sehr scharf auf den Sensor abgebildet wird. Optik TZB Abb. 3.2-17:Beispiel für Telezentrische Beleuchtung Abb. 3.2-18: Anordnung der Beleuchtung Werksbild der Firma VISION & CONTROL, Suhl 3.2.7 Strukturierte Beleuchtung Beim entstehenden Kamerabild handelt es sich um eine Projektion des dreidimensionalen Raumes in ein zweidimensionales Bild. Um räumliche Informationen über das Objekt zu erhalten, ist die Verwendung einer strukturierten Beleuchtung nötig. Je nachdem ob das Objekt mit einem Lichtpunkt, einer Lichtlinie oder einem Lichtgitter beleuchtet wird, unterscheidet man zwischen Triangulations-, Lichtschnitt- oder Gitterprojektionsverfahren. Beim Triangulationsverfahren kann die Höhe an einem Punkt erfasst werden, beim Lichtschnittverfahren entlang einer Linie und beim Gitterprojektionsverfahren erhält man eine größere Rauminformation. Mit diesem Verfahren erhält man Informationen über die dritte Dimension dadurch, dass die Beleuchtung in Abhängigkeit vom Einfallswinkel an einer anderen Ort auf der Oberfläche auftrifft. Dieser Auftreffpunkt ist im Bild zu erkennen, wenn an dieser Stelle eine diffuse Reflexion erfolgt. Dann ist auch die Berechnung der Höhe möglich. 3.2.8 Lichtschnittverfahren Eine meist durch einen Laser erzeugte Linie wird auf ein Objekt abgebildet. Aus dem Versatz der Linie im entstehenden Bild lässt sich aus den geometrischen Verhältnissen die Höhe berechnen. Bei dem in Abbildung 3-2.19 dargestelltem Lichtschnittverfahren, ist die Anordnung so gewählt, dass die Auslenkung der Linie genau der Höhe h entspricht. Dies ist an dem gleichschenkligen gelben Dreieck in der Abbildung zu erkennen. Die entstehende Laserpojektionsebene und die optische Achse der Kamera sind in einen Winkel von 45° angeordnet. Wird die Oberfläche abgerastert, kann eine Volumenmodel des Objektes erzeugt werden. 12 Kamera Laser a h Abb. 3.2-19: Lichtschnittverfahren Abb. 3.2-20: Strukturierte Beleuchtung 3.2.9 Farbspektrum der Beleuchtung Für die Auswahl der Beleuchtung sollte man auch die Wellenlänge des verwendeten Lichtes beachten. Oft werden in der Bildverarbeitung keine Farbkameras verwendet. Unterschiedliche Farben können im Bild die selben Helligkeitswerte (Grauwerte) haben, so dass die geforderten hohen Kontraste nicht erreicht werden können. In diesem Fall ist es möglich, mit der Farbe des Lichtes zu experimentieren, um kontrastreichere Bilder zu erreichen. Bekanntlich ist weißes Licht aus einer Vielzahl von Spektralfarben zusammengemischt. Wird ein Farbanteil aus diesem Spektrum entfernt, ist die Komplementärfarbe zu sehen. Abhängig von den Eigenschaften des Objektes wird Licht unterschiedlicher Wellenlänge unterschiedlich stark absorbiert, reflektiert oder transmittiert. Zeigt ein mit weißem Licht bestrahlter Körper eine hohe Absorption für gelbes Licht, ist im restlichen reflektierten Licht dieser Anteil geringer als vorher. Somit erscheint dieser Körper blau (Komplementärfarbe zu gelb). Die beiden Bilder eines blauen Einstellreglers mit weißer Stellschraube liefern unter blauer und gelber Beleuchtung unterschiedliche Kontraste. Unter blauem Licht kann die Einstellschraube schlecht vom Gehäuse unterschieden werden, weil die Reflexionseigenschaften des blauen Gehäuses und der weißen Stellschraube unter diesem Licht annähernd gleich sind (Abb. 3.2-21). Wird aber mit gelbem Licht beleuchtet, erscheint das Gehäuse im Bild dunkel, weil der Gehäusekunststoff dieses Licht stark absorbiert und damit eine geringere Reflexion zeigt (Abb. 3.2-22). Im Gegensatz dazu hat die weiße Stellschraube gute Reflexionseigenschaften für gelbes Licht und erscheint daher hell. Wird ein Objekt mit der „eigenen Farbe“ beleuchtet, erscheint dieses im Bild hell, wird es mit der Komplementärfarbe beleuchtet, erscheint es dunkel. Der Vollständigkeit halber wird hier auch der Farbkreis abgebildet, mit dem die Komplementärfarbe eines zu untersuchenden Objektes ermittelt werden kann (Abb. 3.2-23). Dazu wird im Farbkreis die der Objektfarbe gegenüberliegende Farbe gesucht. 13 Abb. 3.2-21:Bild mit blauer Beleuchtung Abb. 3.2-22.: Bild mit gelber Beleuchtung Werksbilder der Firma VISION & CONTROL, Suhl grün cyan gelb blau rot magenta Abb. 3.2-23: Farbkreis der Komplementärfarben 3.2.10 Fremdlicht An vielen Stellen, an denen industrielle Bildverarbeitungssysteme eingesetzt werden, kann das Umgebungslicht störend wirken. Für diesen Fall kann neben einer Fremdlichtabschattung auch die Auswahl der Beleuchtung die Prozesssicherheit gewährleisten. Die Wellenlänge des zu verwendenden Lichtes wird so gewählt, dass sich das Spektrum der Beleuchtung vom Spektrum des Fremdlichtes abhebt und letzteres durch Filter ausgeblendet werden kann. Bei Tageslicht ist üblicherweise eine Beleuchtung zu wählen, die im Infrarotbereich liegt, da die üblichen Sensoren, die sogenannten CCD-Chips, über den sichtbaren Bereich des Lichtes hinaus im IRBereich noch empfindlich sind (Abb. 3.2-24). Durch die Verwendung eines Filters wird sichergestellt, dass das Fremdlicht im Gegensatz zum IR-Licht den Sensor nicht erreicht. Es ist aber zu berücksichtigen, dass sich auf vielen CCD-Chips bereits ein IR-Filter befindet, der den Empfindlichkeitsbereich jenseits des sichtbaren Lichtes einschränkt. Damit soll verhindert werden, dass z. B. warme Objekte, die die im IRBereich liegende Wärmestrahlung aussenden, ein anderes Bild erzeugen als kalte Objekte. (Eine Ausnahme ist die Thermographie, die gerade nur diesen Spektralbereich der Wärmestrahlung betrachtet, um Aussagen über die Temperatur und deren Verteilung an Objekten machen zu können.) 14 sichtbar für CCD-Chip ca. 1100nm UV VIS IR sichtbar für den Menschen Abb. 3.2-24: Vergleich Empfindlichkeitsbereich von CCD-Chips und dem Menschen Auch bei der Verwendung von infrarotem Licht sind die Absorptions-, Reflexionsund Transmissionseigenschaften verschiedener Materialien unterschiedlich ausgeprägt. So erscheint der Aufdruck eines SMD-Bauteils unter weißem Licht mit gutem Kontrast, da das Licht vom Gehäuse stark absorbiert wird. Das IR-Licht dringt jedoch ins Gehäuse ein und wird diffus gestreut, wodurch die Schrift nicht mehr gut zu erkennen ist. Daher ist es wichtig, bereits im Vorfeld zu überprüfen, welche Kontraste bei dieser Beleuchtung erzielt werden. Abb. 3.2-25: SMD-Bauteil unter weißem Licht Abb. 3.2-26: SMD-Bauteil unter IR-Licht Werksbilder der Firma VISION & CONTROL, Suhl 3.2.11 Beugungseffekte Bei starken Vergrößerungen von Objekten kann es zu Beugungseffekten kommen. Auch hier spielt die Wellenlänge des Lichtes eine Rolle. Kommt die Pixeldimension, d. h. der Wert, der für die Größe eines abgebildeten Bildpunktes steht, in die Größenordnung der Wellenlänge des Lichtes, ist der Wellencharakter des Lichtes nicht mehr zu vernachlässigen. Licht breitet sich z. B. hinter einem sehr dünnen Spalt nicht mehr nur linear aus. Es ist Licht an Stellen zu beobachten, an denen es nach der linearen Optik nicht zu erwarten wäre. Als Erklärung sei hier auf das Huyghen´sche Prinzip verwiesen, das jeden Punkt einer Wellenfront als Ausgangspunkt einer neuen Wellen sieht (z.B [Hering92]). Dieser Effekt der Beugung ist an jeder Kante zu beobachten, ist aber meist vernachlässigbar klein, außer bei den erwähnten hohen Vergrößerungen. Die folgende Abbildung zeigt eine Kante, die mit telezentrischer Beleuchtung und Optik bei 10-facher Vergrößerung aufgenommen wurde. Ein Bildpunkt entspricht einer Strecke von 1 µm, liegt also in der Größenordnung der Wellenlänge des Lichtes. Es ist deutlich die helle Umrandung der Kante zu erkennen, die durch die Beugung hervorgerufen wurde. Die Beugung ist proportional zur Wellenlänge des Lichtes, d. h. bei rotem Licht ist dieser Effekt fast doppelt so stark ausgeprägt wie bei blauem Licht. 15 Abb. 3.2-27: Beugungseffekte bei hohen Vergrößerungen Werksbild der Firma VISION & CONTROL, Suhl 3.2.12 Verwendung von polarisiertem Licht Als letzte Möglichkeit, mit den Eigenschaften des Lichtes zu experimentieren, sei hier die Veränderung der Polarisationsrichtung des Lichtes erwähnt. Hierbei spielen die Welleneigenschaften des Lichtes eine Rolle. Natürliches Licht besteht aus kurzen Wellenzügen, die völlig regellos in alle Richtungen schwingen. Ein sogenannter Polfilter hat die Eigenschaft, nur die Komponenten des Lichtes durchzulassen, die in einer bestimmten Ebene schwingen. Die Vorgänge bei Reflexion und Transmission sind abhängig von der Polarisationsrichtung und dem Einfallswinkel des verwendeten Lichtes. Wird polarisiertes Licht als Durchlicht verwendet, verändern verschiedene Materialien die Polarisation unterschiedlich stark. Wird vor die Kamera ein Polarisationsfilter montiert, erhält man unterschiedliche Kontraste in Abhängigkeit von der Drehrichtung des Filters. Dieser Effekt wird häufig durch Spannungsdoppelbrechung ausgelöst, bei der Spannungen in Materialien, wie in dem hier abgebildeten Glasstück, die Polarisation des transmittierten Lichtes verändern. Ohne Polarisationsfilter ist das Glas durch seine Transparenz schlecht vom Hintergrund zu trennen. Werden jedoch zwei Polarisationsfilter jeweils vor und nach der Probe in gekreuzter Anordnung verwendet, ist das Glas gut zu erkennen. Ohne ein Medium, welches die Polarisation verändert, ist das Bild schwarz. Der erste Filter läßt nur den Teil des Lichtes durch, der in einer Richtung schwingt und gerade dieses Licht wird vom zweiten Filter vollständig gesperrt, da er um 90° verdreht ist. Die im Glas durch zu schnelle Abkühlung „eingefrorenen“ Spannungen ändern die Polarisationsrichtung des nach dem ersten Filter bereits polarisierten Lichtes, so dass dieses vom zweiten Filter nicht mehr vollständig absorbiert werden kann. Das Glas hebt sich daher vom Hintergrund ab. Abb. 3.2-28: Glasprobe ohne Polarisationsfilter Abb. 3.2-29: Glasprobe mit gekreuzten Polarisationsfilter 16 3.2.13 Verminderung von Reflexionen Störende Reflexionen können durch Polfilter minimiert werden. Unpolarisiertes Licht ist nach einer Reflexion teilweise polarisiert. Teile des reflektierten Lichtes können daher durch einen in korrekter Drehlage verwendeten Polfilter aus dem restlichen Licht ausgeblendet werden. Weil störende Reflexionen gerade bei der Prüfung von Glas eine großes Problem darstellen, sei hier eine ausführlichere Darstellung erlaubt. Der beschriebene Effekt lässt sich durch das Brewster-Gesetz erklären. Die als Licht in das Medium eintretende elektromagnetische Strahlung regt wiederum die Elektronen des Mediums zur Emission von elektromagnetischer Strahlung an, da diese in eine erzwungene Schwingung versetzt werden. Diese Emission unterliegt einer gewissen Abstrahlcharakteristik: in Schwingungsrichtung wird nichts abgestrahlt und senkrecht zur Schwingungsrichtung ist diese Abstrahlung maximal [Hering92, S. 470]. I=0 Licht e- I=Max. Abb. 3.2-30: Intensitätsverteilung des Lichtes Die Einfallsebene wird durch die Flächennormale und den einfallenden Strahl aufgespannt. Licht, das senkrecht zur Einfallsebene polarisiert ist, wird als s-polarisiert bezeichnet; Licht, das parallel zur Einfallsebene polarisiert ist, analog als p-polarisiert. Der Brewster-Effekt ist nur bei p-polarisiertem Licht zu beobachten. Nur bei diesem Licht kann die Schwingungsrichtung der Elektronen mit der Ausbreitungsrichtung des reflektierten Strahls übereinstimmen. Bei diesem sogenannten Brewsterschen Winkel ist daher bei p-polarisiertem Licht annähernd keine Reflexion vorhanden. Dieser Winkel ist leicht nach dem Brechungsgesetz und den Winkelsummen zu errechnen. Bei dieser Formel ist n die Brechzahl des jeweiligen Mediums, das zweite Medium Luft mit dem Brechungsindex von annähernd 1 wurde vernachlässigt. α B = tan −1 n Für das Medium Glas wird eine Brechzahl von 1,5 angenommen. Daraus ergibt sich ein Winkel von 56,3° zum Lot, bzw. von 33,7° zur Fläche. In den Abbildungen 3.2-31 und 3.2-32 wird die Polarisationsrichtung des Lichtes durch Pfeile für eine Schwingungsrichtung in Zeichnungsebene und durch Punkte für eine Schwingungsrichtung senkrecht zur Zeichnungsebene verdeutlicht. 17 α α Luft n1~1 90° Medium n2 β Abb. 3.2-31: Brewsterwinkel mit s-polarisiertrem Licht keine Beeinflussung der Reflexion Abb. 3.2-32: Brewsterwinkel mit p-polarisiertem Licht minimale Reflexion Je stärker sich der Einfallswinkel von unpolarisiertem Licht dem Brewsterwinkel nähert, desto stärker ist es s-polarisiert. Es kann durch einen senkrecht zur Schwingungsrichtung angeordneten Polfilter ausgeblendet werden. Analog dazu kann auch p-polarisiertes Licht verwendet werden. Je näher der Einfallswinkel am Brewsterwinkel liegt, desto geringer ist die Reflexion. Bei den hier abgebildeten Beispielen wurde als Einfallswinkel ein Winkel gewählt, der sehr nahe am Brewsterschen Winkel lag. Die unerwünschten Reflexionen verschwinden fast vollständig durch einen Polfilter und das Logo wird wieder gut lesbar. Abb. 3.2-33: Glasprobe ohne Polarisationsfilter Abb. 3.2-34: Glasprobe mit Polarisationsfilter 3.2.14 Leuchtmittel Nachdem die Vielfalt der möglichen Beleuchtungskombinationen besprochen wurde, sollen die üblich verwendeten Leuchtmittel erklärt werden. Zum Einsatz kommen in der Regel: - Leuchtstoffröhren Halogenlampen Leuchtdioden (LED) Laser 18 Leuchtstoffröhren werden häufig als Flächenleuchten eingesetzt, wobei durch Reflektoren und vorgesetzte Platten (z. B. Milchglasplatten), die als Diffusoren dienen, eine möglichst homogene Intensitätsverteilung erreicht werden soll. Es entsteht eine homogen leuchtende Fläche, die als diffuses Durch- oder Auflicht verwendet wird. Ringleuchten mit einigen Zentimetern Durchmesser kommen ebenfalls zum Einsatz. Der Ring ist jedoch für den sogenannten Starter unterbrochen, wodurch die Lichtverteilung nicht ideal ist. Außerdem ist zu beachten, dass die Lampen bei der niederfrequenten 50Hz-Netzspannung periodische Helligkeitsschwankungen erzeugen, die das Bild negativ beeinflussen können. Der Einsatz von Hochfrequenzvorschaltgeräten ist daher notwendig. Sie sorgen dafür, dass die Frequenz der Helligkeitsschwankung nicht mehr in der Größenordnung der Bildaufnahmerate liegt. Halogenlampen sind sehr helle Leuchtmittel. Sie werden meist in Verbindung mit Lichtwellenleitern verwendet. Sie ermöglichen es, die Lampe an geschützten Stellen zu platzieren und das Licht an den für die Beleuchtung notwendigen Ort zu leiten. Dort sind sie zudem leicht austauschbar. Dies ist bei diesen Lampen durchaus notwendig, da die Lebensdauer mit etwa 2.000 Stunden relativ kurz ist. Ein weiterer Vorteil ist die Möglichkeit, faseroptische Querschnittswandler zu verwenden, wodurch zum Beispiel lichtstarke Linienlichter erzeugt werden können, wie sie bei Zeilenkameras benötigt werden. Auch werden verschiedene faseroptische Ringleuchten am Markt angeboten, die je nach Austrittswinkel der Faserenden als Hellfeld- oder Dunkelfeldbeleuchtung verwendet werden können. Leuchtdioden (LEDs) können in verschiedensten Anordnungen wie Linien, Rechtecken oder Ringen und auch in allen Kombinationen verwendet werden. Sie haben den entscheidenden Vorteil, dass jede Diode einzeln geschaltet werden kann. Dadurch können mit nur einer schaltbaren Beleuchtung Bilder unter verschiedenen Beleuchtungsverhältnissen gemacht werden. Dies ist bei Objekten nötig, bei denen nicht alle Merkmale durch eine einzige Beleuchtung in einem aufgenommenen Bild dargestellt werden können. Leuchtdioden haben eine extrem lange Lebensdauer von mehr als 50.000 Stunden, sie sind nahezu verschleißfrei. Dies ist in Systemen mit kontinuierlichen Prozessen sehr wichtig, da hier ein Ausfall der Beleuchtung oft auch eine Produktionsstörung oder sogar Produktionsausfall bedeutet. Einzig die Leuchtkraft lässt durch Alterung nach, was in einigen Fällen eine Helligkeitsnachführung notwendig macht. LEDs lassen sich gut als Blitzlicht für schnelle Prozesse verwenden. Als letztes sei hier erwähnt, dass üblicherweise LEDs verwendet werden, die im roten oder im nahen Infrarotbereich arbeiten, was den bereits erwähnten Einsatz von Tageslichtfiltern ermöglicht und auch die an der Anlage arbeitenden Mitarbeiter nicht stört. Laser werden als Lichtquelle für die Bildverarbeitung fast ausschließlich in Form von Laserdioden verwendet. Sie kommen sehr oft als strukturierte Beleuchtung wie bei dem Lichtschnittverfahren zum Einsatz, da sie gute Fokussierungsmöglichkeiten haben. 19 3.3 Optik Analog zum menschlichen Sehen mit Hilfe von Linse und Iris, wird auch in der Bildverarbeitung ein optisches System in Form eines Objektives und einer Blende benötigt. Es hat die Aufgabe, das Objekt mit den durch die ausgewählte Beleuchtung hervorgehobenen Merkmalen auf den Sensor scharf abzubilden. 3.3.1 Abbildungsgesetze Betrachten wir zunächst die idealisierte dünne Linse. Linsen werden durch ihre Brennweite charakterisiert, sie gibt den Abstand zwischen Hauptebene und den Brennpunkten auf beiden Seiten an. Strahlen, die parallel in die Linse einfallen, verlaufen auf der gegenüberliegenden Seite durch den Brennpunkt F‘. Analog dazu werden Strahlen, die durch den Brennpunkt F laufen, nach der Linse zu parallelen Strahlen. Strahlen die durch den Mittelpunkt der Linse verlaufen, werden nicht abgelenkt. So ergibt sich Bildpunkt A‘ als scharfes Bild von Punkt A. g b P A G F‘ C‘ B A‘ O C F f f Abb. 3.3-1: prinzipieller Strahlengang einer dünnen Linse Der Abstand von Gegenstand bzw. Bild zur Hauptachse wird als Gegenstandsweite g bzw. Bildweite b bezeichnet. Die Dimension des Objektes bzw. des Bildes wird Gegenstandsgröße G und Bildgröße B genannt. Da es sich bei den Dreiecken ACO und A’C’O um ähnliche Dreiecke handelt, stehen die jeweiligen Seiten der Dreiecke in einem konstanten Verhältnis, woraus sich nach Umformung die Gleichung für den Abbildungsmaßstab ergibt: B b = G g Durch die Ähnlichkeit der Dreiecke POF und A’C’F gilt ebenfalls: B B b b− f = = = PO G g f Durch einfache Umformung erhält man die bekannte Abbildungsgleichung nach Abbe: 1 1 1 = + f g b 20 Durch die Gleichung des Abbildungsmaßstabes und der Abbildungsgleichung nach Abbe lassen sich die meisten nötigen Größen errechnen. In Wirklichkeit bestehen Optiken nicht aus einer idealen dünnen Linse, sondern aus ganzen Linsensystemen. Diese korrigieren bestehende Abbildungsfehler. Um die eben beschriebenen Zusammenhänge und Gleichungen weiter benutzen zu können, wird eine weitere Hauptebene H‘ eingeführt. Werden alle Größen auf die jeweilige Haupteben bezogen, gelten weiterhin alle Gesetzmäßigkeiten. Für praktische Anwendungen sind die Gegenstandsweiten so groß, dass der Hauptebenenabstand vernachlässigbar ist und die Gleichungen ohne Einschränkung verwendet werden können. Sind die Gegenstandsweiten jedoch klein, sollte der Abstand der Hauptebenen beachtet werden. g H H‘ f b f‘ G F F‘ B Abb. 3.3-2: Hauptebenen einer dicken Linse 3.3.2 Blende Die Abbildungseigenschaften eines Objektivs hängen neben der Brennweite auch von dem eingestellten Durchmesser der Blende ab. Mit der Blende kann man die einfallende Lichtmenge regulieren und so die Helligkeit des Bildes der eingesetzten Beleuchtung anpassen. Ist das Objekt stark beleuchtet, muss ein kleiner Blendendurchmesser gewählt werden, damit das Bild nicht zu hell wird und umgekehrt. Die Blende wird durch die sogenannte Blendenzahl charakterisiert, die folgendermaßen definiert ist: f k= . d f d Abb. 3.3-3: Relative Öffnung eines Objektives 21 Ist die Blende nicht stufenlos einstellbar, ist eine internationale Blendenreihe genormt, die aus folgenden Zahlen besteht: 1,0 1,4 2 2,8 4 5,5 8 11 16 22 32. Von Blende zu Blende wird die Beleuchtungsstärke halbiert. Die Menge des einfallenden Lichtes ist dem Quadrat der Blendenzahl umgekehrt proportional. Die Blendenzahlen wachsen daher mit dem Faktor 2 [Demant98, S266]. æ1ö E~ç èk 2 1 æ 1 ö E~ç 2 è 2k 2 3.3.3 Tiefenschärfe Die Blende beeinflusst auch die Tiefenschärfe der Anordnung. Theoretisch können nur Objekte scharf abgebildet werden, die in einer Ebene liegen, da nur für diesen Bereich die Abbildungsgleichungen gelten. Jedes Objekt, das sich in einem anderen Abstand befindet, wird unscharf abgebildet. Der Bereich, in dem diese Unschärfe vernachlässigbar ist, wird als Tiefenschärfe bezeichnet. Die Unschärfe ist abhängig vom Abstand zwischen Sensor und Fokusebene und den Winkeln der Strahlen, die durch die Blende und die Bildweite bestimmt werden. Die Unschärfe wird durch den entstehenden Unschärfekreis mit dem Durchmesser C charakterisiert. Die Festlegung des zulässigen maximalen Durchmessers ist prinzipiell willkürlich. Für einfache Aufgaben werden Durchmesser von zwei Pixeln toleriert, da ein Pixel die kleinste erfassbare Bildeinheit darstellt und eine Unschärfe erst bei zwei Pixeln erkennbar ist. Für hochgenaue Vermessungsaufgaben sind Angaben von einem halben Pixel üblich, da ein Punkt dieser Größe bei den üblichen Sensoren nicht zwei Pixel gleichzeitig belichten kann. g0 C gv gh Abb. 3.3-4: Herleitung der Tiefenschärfe Für die Tiefenschärfe ∆g gilt die Formel: ∆g = g h − g v ≅ 2 g 0 Ck (g 0 − f ) f2 Der Anwender kann schnell in der Formel und auch in der Zeichnung die Zusammenhänge zu erkennen, die für ihn meist ausreichen. Er will nur wissen, wie die Umgebungsbedingungen die Tiefenschärfe beeinflussen. Je kleiner der 22 Blendendurchmesser, desto kleiner wird der Unschärfekreis. Die Tiefenschärfe wird also größer. Aber mit abnehmendem Blendendurchmesser, d. h. mit zunehmender Blendenzahl, wird jedoch das Bild dunkler, da weniger Licht den Sensor erreicht. Zwischen beiden Werten muss ein Kompromiss gefunden werden. Die Tiefenschärfe wird mit zunehmender Gegenstandsweite größer. Ab einem Grenzwert werden sogar alle Objekte scharf abgebildet. Mit einer Verkleinerung der Brennweite wird ebenfalls eine Erhöhung der Tiefenschärfe erreicht. - kleinerer Blendendurchmesser größere Gegenstandsweite kleinere Brennweite - größere Tiefenschärfe Abb. 3.3-5: Verkleinerte Blende und verkleinerter Unschärfekreis 3.3.4 Bildfeldgröße Für den Anwender ist die Größe des erfassbaren Bildfeldes relevant. Ihn interessiert, wie groß ein Objekt sein kann, um das entstehende Bild bei gegebenen Arbeitsabstand auf den Sensor mit festgelegter Größe vollständig abzubilden. Dazu wird die Abbildungsgleichung nach b aufgelöst und in die Gleichung für den Abbildungsmaßstab eingesetzt. Löst man diese Gleichung nach G auf, erhält man: G= g− f B f Für übliche Gegenstandsweiten ist im Zähler die Brennweite vernachlässigbar klein. G≈ g B f Um ein größeres Bildfeld erfassen zu können, muss man also entweder die Gegenstandsweite, die auch Arbeitsabstand genannt wird, vergrößern oder das Objektiv durch ein Objektiv mit kleinerer Brennweite austauschen. Umgekehrt gilt analog, dass für kleinere Objekte geringere Arbeitsabstände oder größere Brennweiten nötig sind. - größere Gegenstandsweite kleinere Brennweite - größeres Bildfeld 23 3.3.5 Minimaler Arbeitsabstand Eine weitere Möglichkeit die Abbildungseigenschaften zu verändern, ist die Verwendung von Zwischenringen, die zwischen Kamera und Objektiv geschraubt werden können. Beim Scharfstellen des Bildes wird die Bildweite verändert, um sie der Gegenstandsweite anzupassen. Dazu werden die in einem Gewinde befestigten Linsen durch eine Drehung der Linsenfassung entlang der optischen Achse bewegt. Ist ein Objekt unendlich weit entfernt, wird das Bild in der Brennebene scharf abgebildet, d. h. die Bildweite ist minimal und entspricht der Brennweite. Für jede kleinere Gegenstandsweite muss die Bildweite vergrößert werden, indem die Linse vom Sensor wegbewegt wird. Der minimale Arbeitsabstand ist erreicht, wenn die Bildweite maximal ist. Die Bildweite ist durch die Länge des Gewindes und dem damit verbundenen Anschlag, bis zu dem die Linse bewegt werden kann, beschränkt. Eine Vergrößerung der maximalen Bildweite und damit eine Verkleinerung des minimalen Arbeitsabstandes kann nur durch den Einsatz von Zwischenringen erreicht werden. Durch die Verwendung des Zwischenrings wird aber auch der maximale Arbeitsabstand verkleinert, da die minimale Bildweite nun um die Stärke des Zwischenrings vergrößert ist und somit Gegenstände ab einer bestimmten Entfernung gmax. nicht mehr scharf abgebildet werden können. Der maximale Arbeitsabstand verringert sich durch den Einsatz von Zwischenringen schneller als der minimale Arbeitsabstand. Die maximale Dicke der Zwischenringe ist eingeschränkt, da ab einem bestimmten Wert der maximale Arbeitsabstand kleiner als der minimale Arbeitsabstand würde. Es ist dann keine scharfe Abbildung mehr möglich. g max . = - größerer Zwischenring f ⋅ ( f + s Ring ) f ⋅ bmin = bmin − f s Ring - kleinerer minimaler Arbeitsabstand kleinerer maximaler Arbeitsabstand Brennweite Auflagenmaß Sensor Zwischenring Abb. 3.3-6: Verwendung von Zwischenringen 24 3.3.6 C-Mount- und CS-Mount-Objektive Die gängigsten Objektiv-Ausführungen sind die sogenannten C-Mount- und CSMount-Objektive. Sie besitzen die gleichen Gewinde, unterscheiden sich jedoch im Auflagenmaß. Dies ist der Abstand zwischen Objektivauflage und Sensor (Abb. 3.36). Beim C-Mount ist es mit 17,525 mm und beim CS-Mount mit 12,525 mm genormt. Zwischenringe werden auch als Adapterstücke verwendet. Eine CS-Mount-Kamera kann mit C-Mount-Objektiven verwendet werden, da der Abstand durch den Einsatz eines 5 mm Zwischenrings angepasst werden kann. Eine C-Mount-Kamera hingegen kann nur mit C-Mount-Objektiven verwendet werden, da die CS-Mount-Objektive zu weit vom Sensor entfernt wären. 3.3.7 Objektivformat Bei der Auswahl der Objetive ist darauf zu achten, dass das Objektivformat, d. h. die Größe des entstehenden Lichtkreises, zum verwendeten Sensorformat passt. Die gemachten Angaben sind keine absoluten Größen, sondern sind auf die Sensorformate ausgelegt. So kann ein 1‘‘-Sensor vollständig durch ein 1‘‘-Objektiv ausgeleuchtet werden, da er gerade in den Lichtkreis passt. Es ist verständlich, dass kleinere Sensoren mit größeren Objektiven verwendet werden können, jedoch nicht umgekehrt. ∅ 15,9 mm 6,6mm 6,6mm ∅ 6,0 mm 8,8mm 8,8mm Abb. 3.3-7: 2/3‘‘-Sensor mit Lichtkreis eines 1/3‘‘-Objektivs [[Demant98, S. 280] Abb. 3.3-8: 2/3‘‘-Sensor im Lichtkreis eines 1‘‘-Objektivs [[Demant98, S. 280] Um den Anwendern die Auswahl der Objektive möglichst leicht zu machen, bieten viele Hersteller Tabellen an, in denen die passenden Objektive nachgeschlagen werden können. Einige der Hersteller haben diese Tabellen auch im Internet veröffentlicht. Als Beispiel sei hier die Homepage der Firma Data Translation http://www.datatranslation.de erwähnt. Die Tabellen sind nach Arbeitsabstand, Objektgröße und Sensorgröße sortiert und ermöglichen eine schnelle Auswahl ohne Rechenaufwand. 3.3.8 Abbildungsfehler Neben den Abbildungsgesetzen ist auch die Kenntnis über die möglichen Abbildungsfehler wichtig. Diese Fehler sind durch die erreichte Qualität der modernen Objektive oft vernachlässigbar, sollten aber für genaue Vermessungsaufgaben Beachtung finden. 25 3.3.8.1 Verzeichnung Der Abbildungsmaßstab von Linsen ist abhängig vom Abstand der Strahlen zur optischen Achse, d. h. der Abbildungsmaßstab für Punkte am Rand kann größer oder kleiner sein, wodurch das Bild verzerrt wird. Geraden in einem Bild werden daher zum Mittelpunkt hin- bzw. weggekrümmt, wodurch die sogenannte Kissen- bzw. Tonnenverzeichnung entsteht. Die Verzeichnungswerte liegen in der Regel zwischen 0,2% und 1%, wodurch Abweichungen bis zu mehreren Bildpunkten möglich sind. Abb. 3.3-9: Kissenverzeichnung Abb. 3.3-10: Tonnenverzeichnung 3.3.8.2 Farbfehler Beim Durchgang von weißem Licht durch ein Prisma wird das Licht in seine Spektralfarben zerlegt. Dieser Effekt beruht auf der Dispersion des Lichtes. Durch sie ist die Brechzahl des Mediums von der Wellenlänge des Lichtes abhängig. Dieser Effekt ist auch bei Linsen zu erkennen. Die Fokussierung eines Bildpunktes ist prinzipiell nur für eine Wellenlänge exakt, da die Brennweite vom Brechungsindex abhängt und damit die Abbildungsgleichung eine andere ist. Ist das Bild eines blauen Objektes scharf, ist das Bild eines roten Objektes bei gleichen Einstellungen unscharf. Dieser Fehler wird chromatische Aberration genannt. Durch den Einsatz mehrerer Linsen mit entgegengesetzten Dispersionen wird versucht, einen über alle Wellenlängen konstanten Brechungsindex zu erreichen. Dies gelingt begrenzt, wodurch für hochgenaue Vermessungen die Verwendung von monochromatischem Licht, d. h. Licht einer Wellenlänge, ratsam ist. Abb. 3.3-11: Blaues fokussiertes Viereck Abb. 3.3-12: rotes Viereck mit gleichen Einstellungen 3.3.8.3 Bildwölbung In der Praxis wird das Bild durch die Linse auf einer gewölbten Fläche erzeugt. Der Sensor stellt jedoch eine planare Fläche dar. Das Bild ist daher an den Rändern unscharf, da dort die Fokuspunkte weiter vom Sensor entfernt sind. Sensor gewölbte Bildebene Abb. 3.3-13: gewölbte Bildebene 26 3.3.9 Objektivtypen Für einfache Aufgabe ohne hohe Anforderungen werden günstige Standardobjektive mit den beschriebenen Abbildungsfehlern angeboten. Ist die genaue Lage von Merkmalen im Bild, jedoch nicht die genaue Größe relevant, können verzeichnungsarme Optiken verwendet werden. Sie sind auch für einfache Vermessungsaufgaben von Objekten geringer Dicke, die im konstanten Abstand aufgenommen werden, geeignet. Für hochgenaue Vermessungsaufgaben ist der Einsatz von telezentrischen Objektiven notwendig. Bei diesen Objektiven wird eine Blende genau in den Brennpunkt gelegt, wodurch nur Strahlen den Sensor erreichen, die objektseitig parallel zur optischen Achse verlaufen. Im Telezentrie-Bereich ist daher der Abbildungsmaßstab konstant. Eine Änderung der Gegenstandsweite führt zu keiner Änderung der Bildgröße. Dies zeigen die Abbildungen 3.3-16 und 3.3-17 am Beispiel des blauen Zylinders. konstanter Abbildungsmaßstab Änderung der Gegenstandsweite Abb. 3.3-14: Strahlengang der telezentrischen Optik So können auch unerwünschte perspektivische Abbildungen verhindert werden, wie die Abbildungen 3.3-15 bis 3.3-17 am Beispiel der roten Bohrung zeigen. Abb. 3.3-15: Objekt Abb. 3.3-16: Bild mit normaler OptikAbb. 3.3-17: Bild mit telezentrischer Optik Diese Optiken werden für genaue Aufgaben mit telezentrischen DurchlichtBeleuchtungen verwendet, da sie im Vergleich zu normalen Aufbauten die genaueren Ergebnisse liefert (Abb. 3.3-18). 27 entozentrisches Objektiv und diffuse Beleuchtung große Beleuchtungs- und große Obkjektivapertur Überblendung und Reflexion EZO telezentrisches Objektiv und diffuse Beleuchtung große Beleuchtungs- und kleine Objektivapertur Reflexion an Radius TZO telezentrisches Objektiv und telezentrische Beleuchtung kleine Beleuchtungs- und kleine Objektivapertur keine Überblendung und keine Reflexion f TZO TZB wahre Größe Abb. 3.3-18: Polierter Bolzen unter verschiedenen Bedingungen Werksbilder der Firma VISIOSN&CONTROL, Suhl An den Bildern ist die Steigerung der Kantenqualität durch geringe Öffnungswinkel zu sehen. Es kommt nicht zu Überblendungen oder störenden Reflexionen am Radius des Stabes. Die abgebildete Kante entspricht der wahren Kante. Für einige Anwendungen können Superweitwinkel-Objektive, die auch als Fischaugen-Objektive bezeichnet werden, zum Einsatz kommen. Sie ermöglichen aufgrund ihrer Bauart und dem damit verbundenen extremen Öffnungswinkel 360°Aufnahmen. Solche Aufnahmen zeigen eine hohe Kissenverzeichnung und sind daher nur für Anwesenheitskontrollen z. B. im Inneren von rotationssymmetrischen Objekten geeignet [Demant98, S. 281]. Für die Untersuchung an unzugänglichen Stellen werden sogenannte Technoscope eingesetzt, die vom Aufbau her den in der Medizin verwendeten Endoscopen sehr ähnlich sind. Bei diesen stabförmigen Optiken, die aus Objektiv, Okular und Beleuchtung bestehen, wird Licht meist durch einen Lichtleiter zum Objekt und wieder zurück geleitet. Üblicherweise werden dazu faseroptische Bildleitfasern verwendet. Die hier erwähnten Optiken entsprechen nur einem kleinen Ausschnitt. Es sind viele weitere Optiken erhältlich, die jedoch nur für sehr spezielle Anwendungen eingesetzt werden. 28 3.4 Sensor 3.4.1 CCD-Chip Der Sensor hat die Aufgabe, das entstandene Bild in verwertbare Signale umzuwandeln. Dazu werden lichtempfindliche Elemente benötigt, die ein von der Beleuchtungsstärke abhängiges elektrisches Signal erzeugen. Heutzutage werden in fast allen Kameras dazu sogenannte CCD-Chips (charge coupled device) verwendet. Dabei handelt es sich um flächig oder zeilenförmig angeordnete lichtempfindliche Halbleiterelemente, die als Pixel bezeichnet werden. Je nach Anordnung der Pixel handelt es sich um Matrix- bzw. Zeilenkameras. Während der Belichtungszeit, die auch Integrationszeit genannt wird, wandelt der Sensor einfallendes Licht in Elektronen um und speichert diese entstehende Ladung. Durch die kleinen Sensorgrößen ist es nicht möglich, jedes Sensorelement einzeln zu verdrahten. Sie werden durch Schieberegister verbunden und später durch Umladungsvorgänge sequenziell ausgelesen. Nach der Integrationszeit wird die Ladung der einzelnen Elemente zeilenweise erst in das vertikale und dann ins horizontale Schieberegister transportiert und ausgelesen. Der Beleuchtungswert wird als analoges zeitabhängiges Spannungssignal übertragen. Um die einzelnen Elemente zu trennen, sind ebenfalls Potenzialwälle notwendig, so dass der Anteil der lichtempfindlichen Fläche des Sensors um die Register und die Potenzialwälle vermindert wird. Dieser Anteil wird als Fillfaktor bezeichnet. 3.4.2 Videonorm Die Sensoren einer Matrixkamera stammen oft aus dem günstigen Massenmarkt der Videotechnik und arbeiten daher nach der CCIR-Norm, die die Übertragung von Halbbildern beinhaltet. Dieses Verfahren wird auch als Interlaced-Verfahren bezeichnet. Durch die Halbbildübertragung, z. B. beim Fernsehen, wird ein für den Menschen ruhigeres Bild erzeugt. Es wird erst nur eine Hälfte der Sensorelemente, d. h. alle ungeraden Zeilen und später die andere Hälfte der Elemente ausgelesen. Um den Beginn einer neuen Zeile oder eines neuen Halbbildes zu markieren, werden Zeilen durch horizontale Synchronisationsimpulse und die Halbbilder durch einen vertikalen Synchronisationsimpuls getrennt. Diese Impulse unterscheiden sich in ihrer Dauer und genauen Position, die später von der Bilderzeugung erkannt werden. Vertikale Schieberegister 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Sensorelemente Horizontales Schieberegister Ausgang: U(t) U(t)=VSYNC, U(1), U(2), U(3), U(4), HSYNC, U(9),U(10),U(11),U(12), VSYNC, U(5), U(6), U(7), U(8), HSYNC, U(13), U(14), U(15),U(16) Abb. 3.4-1: CCD-Sensor und sequenzielle Auslesung nach Videonorm 29 Durch die Beleuchtung der einzelnen Elemente mit Licht einer bestimmten Intensität I und Wellenlänge λ wird während der Integrationszeit TI pro Element mit den Koordinaten x und y eine gewisse Ladungsmenge Q erzeugt, welche sequenziell ausgelesen und als ein von der Zeit t abhängiges analoges Spannungssignal U an den Ausgang übertragen wird. Abb. 3.4-2: Beleuchteter Sensor I(x,y,λ λ) 7 7 15 39 39 15 7 7 7 15 86 95 95 86 15 7 7 39 95 95 95 95 39 7 7 39 95 95 95 95 39 7 7 15 86 95 95 86 15 7 7 7 15 32 32 15 7 7 Q(x,y,TI) U(t) Abb. 3.4-3: Prozentualer Ladungszustand der Sensorelemente Abb. 3.4--4: Signalumwandlungen Vollbild 1. Halbbild 110 2. Halbbild 100 90 80 relative Spannung 70 60 50 40 30 20 10 0 -10 -20 -30 Zeile 1 Zeile 3 Zeile 5 Zeile 2 Zeile 4 Zeile 6 -40 -50 Zeit VSYNC HSYNC Abb. 3.4-5: Prinzipskizze des Spannungssignals 30 3.4.3 Eigenschaften der Sensoren Die Sensoren werden durch mehrere Eigenschaften charakterisiert. Die Anzahl der Sensorelemente bestimmt die Auflösung des späteren Bildes. Standard-Videokameras arbeiten mit 752 x 582 Pixeln. Hochauflösende Kameras mit 1024 x 1024 oder teure Kameras mit bis zu 4000 x 4000 Pixeln finden ebenfalls Einsatz. Für den Einsatz in der Astronomie werden sogar Kameras mit 8000 x 8000 Pixeln eingesetzt. Die Pixelgröße gibt die tatsächliche Größe eines Elementes an und liegt im µmBereich, z. B. 8,3=µm x 8,3 µm. Für genaue Vermessungen sollten nur Sensoren mit quadratischen Elementen verwendet werden, da rechteckige das entstehende Bild negativ beeinflussen würden. Die Sensorgröße gibt die Größe der lichtempfindlichen Fläche an. Durch die fortgeschrittene Herstellungstechnologie können diese Halbleiterbauteile in immer kleineren Abmessungen mit höheren Auflösungen hergestellt werden, wodurch die Anforderungen an die Optiken ebenfalls kleiner werden, da eine kleinere Fläche homogen ausgeleuchtet werden muss. Früher waren 1‘‘-Sensoren üblich, heute sind auch 2/3‘‘- und 1/3‘‘-Sensoren erhältlich und in Zukunft werden es 1/4‘‘-Sensoren sein. Die Lichtempfindlichkeit gibt an, ab welcher Beleuchtungsstärke ein Sensor Bilder liefern kann. Auch der Dunkelstrom, d. h. ein Signal ohne Lichteinfall, bedingt diese Grenze, da er in den Signal-Rauschabstand einfließt. Er entsteht, da Ladungsträger nicht nur durch einfallendes Licht, sondern auch durch thermische Anregung im Sensorelement erzeugt werden können. Er kann durch Kühlung des Sensors verringert werden. Beim hier erwähnten Interlaced-Verfahren kommt es bei schnell bewegten Objekten zum Halbbildversatz, da sich zwischen den beiden Bildern das Objekt bewegt hat. Abhilfe schafft die Verwendung eines Progressive-Scan-Sensors, der Vollbilder überträgt und somit diesen Fehler nicht aufweist. 3.4.4 Zeilenkamera Neben den Matrixkameras ist auch die Verwendung von Zeilenkameras möglich. Bei ihnen sind Sensorelemente in einer Reihe angeordnet. Solche Kameras eignen sich sehr gut für die Kontrolle von Endlosmaterialien wie Stahlbänder, Papier, Textilstoffe etc. Für die Produktionsüberwachung werden sie über das sich bewegende Band montiert. Abb. 3.4-6: Prinzipskizze einer automatischen Fehlererkennung an Flachglas mit einer Zeilenkamera 31 Diese Kameras nehmen in bestimmten Zeitabständen, die konstant oder von der Bandgeschwindigkeit abhängig sein können, eine Zeile auf. Die entstehenden Zeilen werden später zu einem Bild zusammengesetzt und können wie die Bilder einer Matrixkamera ausgewertet werden. Auch bei Applikationen, für die extrem hohe Auflösungen notwendig sind, die durch Matrixkameras nicht mehr erreicht werden können, ist der Einsatz von Zeilenkameras notwendig. Für die Erfassung des Objektes muss die Kamera oder das Objekt bewegt werden, damit die Kamera einzelne Ausschnitte des Objektes aufnehmen kann. Ein handelsüblicher Flachbettscanner funktioniert übrigens auf die gleiche Weise. 3.4.5 CMOS-Chip Neben den erwähnten CCD-Chips werden in Zukunft wohl vermehrt CMOS-Chips (complementary metal oxide semiconductor) eingesetzt werden. Die Funktionsweise dieser Chips ist der Funktionsweise der CCD-Chips sehr ähnlich. CCD-Chips zeichnen sich durch ausgereifte und etablierte Technologie, sowie geringes Signal-Rausch-Verhältnis aus. Sie ermöglichen aber nur das vollständige Auslesen von Halb- bzw. Vollbildern. Demgegenüber bieten CMOS-Chips die Möglichkeit, gezielt einzelne Pixel oder Pixelbereiche auszulesen. Somit können auch einzelne Teile des Bildfeldes aufgenommen werden. Da mehr elektronische Komponenten auf dem Chip integriert werden können, ist eine günstigere Herstellung möglich. Dadurch verringern sich die Systemkosten. Leider ist bei diesen Chips das Signal-Rausch-Verhältnis derzeit noch deutlich schlechter. Auch wenn diese Technologie noch nicht so ausgereift ist, bietet sie aber ein Potenzial, das es in Zukunft zu nutzen gilt. 3.5 Bilderzeugung Das vom Sensor erzeugte Signal muss aufbereitet werden, um es der Auswerteeinheit als Bild zur Verfügung zu stellen. Die Komponente, die dieses Bild erzeugt, wird Framegrabber genannt. 3.5.1 Signalumwandlung Beim Sensorsignal handelt es sich, wie oben beschrieben, um eine zeitabhängige Spannung, die die Aneinanderreihung der Ladung der einzelnen Sensorelemente wiedergibt. Dabei wird der Beginn der Zeilen und der Halbbilder durch die Synchronisationsimpulse markiert. Dieses analoge Signal muss digitalisiert werden. Dazu wird das Signal vom Framegrabber mit einer konstanten Frequenz abgetastet. Die Abtastung startet mit einem Synchronisationsimpuls. Das Zeitintervall zwischen den Abtastungen ist konstant. Die Abtastung wird solange weitergeführt, bis ein neuer Impuls den Beginn einer neuen Zeile oder eines neuen Halbbildes anzeigt. Der jeweils eingelesene Spannungswert wird mit einer 8 Bit-Auflösung digitalisiert und als Grauwert übertragen. Eine Auflösung von 8 Bit bedeutet, dass der erfasste Spannungsbereich in 28 = 256 Teile unterteilt wird. Zwischenwerte sind nicht möglich. Die einzelnen Werte werden in den Kurzspeicher übertragen und dort nach ihrer Reihenfolge wieder zu einem Bild zusammengesetzt. Die gesamte Umwandlung der Signale ist in 3.5-1 dargestellt. 32 Vollbild 1. Halbbild 110 2. Halbbild 100 90 80 70 relative Spannung U(t) 60 50 40 30 20 10 0 -10 Z1 -20 Z3 Z5 Z2 Z4 Z6 -30 -40 -50 Zeit Abtastzeitpunkte 100 Digitalisierte Spannung 80 U1,U2,U3... 60 40 20 0 VSYNC 18 18 38 99 99 38 18 18 HSYNC 18 G1,G2,G3... 99 242 242 242 242 99 18 HSYNC 18 38 219 242 242 219 38 18 VSYNC 18 18 38 99 99 38 18 18 18 38 219 242 242 219 38 18 18 99 242 242 242 242 99 18 18 99 242 242 242 242 99 18 18 38 219 242 242 219 38 18 38 99 99 38 18 18 18 18 18 G(x,y) Abb. 3.5-1 Signalumwandlungen 33 .... 3.5.2 Abtastfehler Am entstehenden Bild ist bereits zu erkennen, dass es durch die beschränkte Auflösung zu einem Informationsverlust kommt. Die Form des Kreises ist nur zu erahnen. Merkmale, die kleiner als die Pixeldimension sind, können nicht erfasst werden. Die Abtastfrequenz wird unabhängig von der Auslesefrequenz der Pixel durch einen Oszillator erzeugt. Der eingelesene Spannungswert, der zum Grauwert eines Bildpunktes umgerechnet wird, muss also nicht dem Spannungswert des zugehörigen Pixels entsprechen. Die Anzahl der abgetasteten Spannungswerte wird nur durch das von der Oszillatorfrequenz abhängige Zeitintervall ∆t festgelegt. Die Pixelanzahl pro Zeile im entstehenden Bild, d. h. die vertikale Auflösung, muss nicht mit der Pixelanzahl des Sensors übereinstimmen. Dies kann zu Verfälschungen führen, die bei bestimmten Anwendungen nicht toleriert werden können. digitalisierte Werte digitalisierte Werte U(t) U(t) ∆t t0 t0 Tatsächliche Werte der Sensorelemente Tatsächliche Werte der Sensorelemente Abb. 3.5-3: Abtastfrequenz > Auslesefrequenz Abb. 3.5-2: Abtastfrequenz = Auslesefrequenz 0 39 53 118 ∆t 230 230 118 53 39 0 Abb. 3.5-4: korrekte Zeile 0 33 46 66 132 224 250 178 86 53 39 13 Abb. 3.5-5: verfälschte Zeile 3.5.3 Pixeltakt Um sicherzustellen, dass ein Wert zum korrekten Zeitpunkt digitalisiert wird, ist die Synchronisation der Pixel notwendig. D. h. die Kamera muss neben dem Videosignal ein weiteres Signal übertragen, das als Pixeltakt bezeichnet wird. Dieses Signal muss der Framegrabber ebenfalls unterstützen, damit er im Kameratakt zum korrekten Zeitpunkt den Spannungswert digitalisiert. 34 3.5.4 Bildfehler Alle bisher beschriebenen Komponenten dienen dazu, das Objekt und die zugehörigen Merkmale zu erfassen. Das entstandene Bild, das später ausgewertet werden soll, ist je nach Auswahl der Komponenten stark fehlerbehaftet. Alle Fehler bestimmen das Ergebnis der Auswertung und die damit verbundene Genauigkeit bzw. die Prozesssicherheit. Wie stark sich ein Bild vom Objekt unterscheiden kann, soll an einem Beispiel gezeigt werden. Ein Blechteil soll auf Maßhaltigkeit überprüft werden und wird mit einem Förderband durch ein Prüfsystem mit Bildverarbeitungskomponenten bewegt. Als Komponenten werden ein diffuses Durchlicht, ein Standardobjektiv, eine Standardkamera und ein dazu passender Framegrabber verwendet. Jede dieser Komponenten erzeugt spezifische Fehler: - Durch die diffuse Beleuchtung werden die Kanten nicht scharf abgebildet. - Die Führung des Förderbandes ist nicht beliebig genau, dadurch ist der Abstand von Objekt zu Kamera nicht konstant. - Da keine telezentrische Optik verwendet wird, ist somit auch die Bildgröße nicht konstant. - Die Optik zeigt eine Verzeichnung, wodurch das entstandene Bild verzerrt ist. Dieses verzerrte Bild wird mit einer begrenzten Auflösung aufgenommen und übertragen. - Da es sich um eine Halbbildübertragung handelt, zeigen die beiden Halbbilder einen Versatz. - Und weil die Abtastfrequenz des Framegrabbers nicht mit der Auslesefrequenz der Kamera übereinstimmt, ist das Bild gedehnt. Die Bilderreihe zeigt anhand der übertrieben dargestellten Fehler, wie stark sich ein Bild von dem Objekt unterscheiden kann. Es leuchtet ein, dass die Informationen, die bereits bei der Bildaufnahme verloren gehen, nicht durch noch so genau arbeitende Algorithmen bei der Vermessung wiederhergestellt werden können. Durch die geringe Auflösung (Pixelanzahl) ist nicht mehr zu erkennen, welche Kante gewellt und welche gezackt ist. Für den Anwender ist es daher wichtig zu wissen, dass das aufgenommene Bild nicht mehr genau die Eigenschaften des Objektes widerspiegelt. Es kann nur begrenzt Informationen zur Verfügung stellen und erhebliche Ungenauigkeiten beinhalten. Abb. 3.5-6: Ideales Bild Abb. 3.5-7: Bild mit Unschärfe, Verzeichnung und falschem Abbildungsmaßstab Abb. 3.5-8: Digitalisiertes Bild mit Halbbildversatz und Stauchung in x-Richtung 35 3.5.5 Digitale Systeme Für die industrielle Bildverarbeitung werden immer mehr Systeme angeboten, die nicht nach der beschriebenen Videonorm arbeiten. Diese Systeme sind noch sehr teuer, da sie nur in geringen Stückzahlen gefertigt werden. Sie bieten jedoch die Möglichkeit, die beschriebenen Übertragungsfehler, die durch das Digitalisieren des analogen Signals der Pixel entstehen, durch andere Übertragungsarten zu vermindern. So werden digitale Kameras angeboten, die jeden ausgelesenen Pixel direkt digitalisieren und in digitaler Form an die Auswerteeinheit übertragen. Diese Kameraart ist sehr gut für genaue Vermessungsaufgaben geeignet, da sie praktisch keine der beschriebenen Übertragungsfehler zeigt. Jeder Hersteller entwickelt seine eigene Übertragungstechnik und den damit verbundenen Datenbus, wodurch die Komponenten verschiedener Hersteller nicht untereinander kompatibel sind. Abhilfe könnte das Bussystem IEEE-1394 sein. Es wurde bereits vor Jahren von der Firma Apple unter dem Namen FireWire entwickelt und hält im Moment Einzug in die Videotechnik und Unterhaltungselektronik. So ist jeder neue digitale Camcorder mit dieser Schnittstelle versehen. Der Einsatz dieser Technik im Massenmarkt und die damit verbundenen Stückzahlen lassen auf fallende Preise hoffen. Neben dem günstigen Preis zeichnet sich dieser Datenbus vor allem durch seine hohen Übertragungsraten von 400 Mb/s und zukünftig sogar 1600 Mb/s aus. So ist verständlich, dass bereits einige Firmen im Bereich der industriellen Bildverarbeitung digitale Kameras für diesen Datenbus entwickelt haben. 3.6 Auswerteeinheit Die Auswerteeinheit hat die Aufgabe, die gewünschten Informationen aus dem erzeugten Bild zu gewinnen. Beim menschlichen Sehvorgang wertet das Gehirn das übermittelte Bild aus. Es ist in der Lage, sehr schnell die unrelevanten Inhalte eines vollständigen Bildes zu vernachlässigen. Der Mensch kann sich auf bestimmte Objekte konzentrieren und diese beurteilen, ohne das gesamte Bild auswerten zu müssen. Er kann ebenfalls sehr gut störende Bildinformationen ausblenden. Es ist für ihn kein Problem, auch bei starkem Regen Objekte zu erkennen, solange es hell genug ist. Die Regentropfen sind fast unsichtbar, wenn der Beobachter sich nicht auf sie konzentriert. Ein Bildverarbeitungssystem ist von sich aus nicht in der Lage zu entscheiden, welcher Bildinhalt relevant ist und welcher nicht. Die Kriterien für die Entscheidung, welche Inhalte ausgewertet werden sollen, müssen dem System durch die Programmierung mitgeteilt werden. Die Gewinnung der gesuchten Informationen erfolgt mit Hilfe mathematischer Rechenvorschriften. 3.6.1 Bildvorverarbeitung Vor der eigentlichen Auswertung ist oft eine Veränderung des Bildes notwendig. Dieser Schritt wird Bildvorverarbeitung genannt. Er hat die Aufgabe, die Eigenschaften des Bildes zu verbessern und Störungen zu minimieren. Ein Mittel ist die Verwendung von Filtern. In Abhängigkeit von den Grauwerten des Originalbildes wird ein neues Bild mit anderen Eigenschaften errechnet. 36 3.6.2 Punktoperationen Man unterscheidet zwischen Punktoperationen, bei denen der Grauwert eines Pixels im neuen Bild nur vom Grauwert des korrespondierenden Pixels im Originalbild abhängt, und den lokalen Operationen, bei denen der neue Grauwert eines Pixels von mehreren Pixeln im alten Bild abhängt. 3.6.2.1 Look-Up Tabelle Ein typisches Beispiel für eine Punktoperation ist die Look-Up-Tabelle. Der Grauwert des Zielpixels ist eine beliebige Funktion des Grauwertes des Eingangspixels: GZ ( x, y ) = f (GE ( x, y )) Um die Berechnung des neuen Bildes zu beschleunigen, wird die Funktion in einer Tabelle, der sogenannten Look-Up-Tabelle, hinterlegt, d. h. für jeden Eingangsgrauwert wird „nachgeschaut“ (engl.: look), welcher Ausgangsgrauwert dem neuen Pixel zugewiesen werden soll. GZ(x,y)=GE(x,y)/2 Eingangsgrauwert 150 194 Eingangsbild 51 19 Ausgangsgrauwert ... ... 148 74 149 74 150 75 151 75 152 76 153 76 154 77 155 77 ... ... 75 25 97 9 Ausgangsbild Abb. 3.6-1: Funktion der Look-up-Tabelle Viele Programme bieten die Möglichkeit, die Funktion, mit deren Hilfe die Tabelle errechnet wird, selbst vorzugeben. Dazu wird sie entweder als Formel eingegeben oder in grafischer Form selbst erzeugt. Werden Formeln verwendet, bei denen es zu Werten außerhalb des erlaubten Bereichs von 0 bis 255 (8 Bit-Auflösung) kommt, werden die Zahlen entweder durch 0 oder 255 ersetzt. So kann z. B. ein Bild durch folgende Funktion schnell invertiert werden: GZ ( x, y ) = 255 − GE ( x, y ) Auch kann der Kontrast verstärkt werden, indem gewisse Grauwertbereiche aufgehellt oder verdunkelt werden. Abb. 3.6-2: Originalbild Abb. 3.6-3: Invertiertes Bild Abb. 3.6-4: Bild mit Kontrastverstärkung 37 3.6.2.2 Binarisierung Die am häufigsten verwendete Punktoperation ist die Binarisierung. Sie verringert den Speicherplatz des Bildes und die damit verbundene notwendige Rechenleistung für die Auswertung des Bildes. Aus den 256 möglichen Grauwerten werden in Binärbildern nur die zwei möglichen Grauwerte 0 für Schwarz und 1 für Weiß errechnet. Typische Anwendung ist das Setzen eines Schwellwertes GS (Treshhold). Alle Pixel im Eingangsbild mit Grauwerten, die kleiner als der Schwellwert sind, werden zu schwarz und die restlichen werden zu weiß. ìG ≤ GS = 0 GZ = í E G E > GS = 1 Abb. 3.6-5: Vergleich Grauwertbild und Binärbild Die Binarisierung dient zur Trennung von Objekt und Hintergrund. Diese Trennung ermöglicht später eine einfache und schnelle Segmentierung. Durch Beleuchtungsschwankungen unterliegen jedoch die aufgenommen Bilder oftmals Helligkeitsschwankungen. Diese verhindern den Einsatz eines festen Schwellwertes, so dass er für jedes Bild neu berechnet werden muss. Man spricht von Schwellwertnachführung. Durch die Berechnung wird sichergestellt, dass das Objekt sich immer noch vom Hintergrund abhebt und so von ihm getrennt werden kann. Eine Möglichkeit der Berechnung ist die Verwendung eines Histogramms. Die Pixel mit gleichem Grauwert werden gezählt und ins Verhältnis zur Gesamtzahl der Pixel gesetzt. Diese Häufigkeit wird in einem Histogramm dargestellt. In der Regel hat man in einem Bild viele helle Punkte des Objektes und viele dunkle Punkte, die den Hintergrund repräsentieren. Dies wird durch die Ausbildung von zwei Maxima im Histogramm deutlich. Für jedes neue Bild wird der Schwellwert zwischen beide Maxima gesetzt. Die Bildreihe auf der nächsten Seite zeigt einen Strichcode, der bei unterschiedlichen Lichtverhältnissen aufgenommen wurde. Werden die Bilder mit einem konstanten Schwellwert binarisiert, ist der Strichcode nur beim mittleren Bild auszuwerten. Wird für jedes einzelne Bild anhand eines berechneten Histogramms ein angepasster Schwellwert verwendet, ist der Strichcode in allen drei Bildern auswertbar. 38 Originalbilder Binärbilder mit konstantem Schwellwert Histogramme der Orginalbilder Binärbilder mit Schwellwertberechnung im Histogramm Abb. 3.6-6: Vergleich der Binarisierung mit konstantem und berechnetem Schwellwert 39 Sind im Bild sowohl helle als auch dunkle unrelevante Bildpunkte vorhanden, ist die Verwendung einer zweiten Binärschwelle notwendig. Die Schwellen werden so gelegt, das sie unterhalb und oberhalb der relevanten Bereiche liegen. So werden sowohl helle als auch dunkle Punkte des Hintergrundes vom Objekt getrennt. Die Verwendung weitere Schwellwerte ist möglich. Sie wird jedoch selten angewandt. ìGE ≥ GS 2 = 0 GZ = í G E > GS 1 = 1 î GE ≤ GS1 = 0 Originalbild ein hoher Schwellwert ein niedriger und ein hoher Schwellwert ein niedriger Schwellwert Abb. 3.6-7: Verlust von Informationen durch den Einsatz nur eines Schwellwertes 3.6.2.3 Lokale Operationen Bei den lokalen Operationen wird der neue Grauwert des Pixels durch eine Funktion berechnet, in die neben dem eigentlichen Pixel auch seine Nachbarpixel eingehen. GZ = f (G ( x − n ⋅ ∆x )...G ( x + n ⋅ ∆x ), G ( y − n ⋅ ∆y )...G ( y + n ⋅ ∆y )) Auch hier wird diese Funktion näherungsweise berechnet, wozu eine sogenannte Filtermaske mit einer bestimmten Kantenlänge erzeugt wird, in der die Eingangspixel entsprechend ihrer Lage gewichtet werden. Eine solche Maske wird als Filterkern bezeichnet. Als Beispiel soll hier der Gaußfilter mit einem 3 x 3 Filterkern dargestellt werden, der zur Glättung von Bilder verwendet wird (Abb. 3.6-8 und 3.6-9). Da für die Berechnung der Zielpixel am Rand Teile des Filterkerns auf nicht vorhandene Pixel zugreifen würden, werden diese entweder entfernt, mit einem konstanten Grauwert versehen oder durch die ersten berechenbaren Pixel ersetzt. Die letztere Methode hat den Vorteil, dass das neue Bild weder verkleinert wird, noch dass neue Kanten entstehen. Typische Filtergrößen sind 3 x 3, 5 x 5, 7 x 7 und 9 x 9. 40 1 16 1 2 1 2 4 2 1 2 1 Abb. 3.6-8: Filterkern des 3 x 3 Gaußfilters GZ= (1 • 40 + 2 • 180 + 1 • 250 + 2 • 10 + 4 • 40 + 2 • 180 + 1 • 10 + 2 • 10 + 1 • 40) / 16= 79 250 180 250 250 250 250 137 137 156 219 246 246 250 40 180 250 250 250 137 137 156 219 246 246 250 10 40 180 250 250 88 88 79 156 219 219 250 10 10 40 180 250 72 72 28 79 156 156 250 10 10 10 40 180 115 115 72 88 137 137 250 250 250 250 250 250 115 115 72 88 137 137 Abb. 3.6-9: Funktionsweise des Gaußfilters 41 Es sind sehr viele Filter einsetzbar. Da für den Anwender die Eigenschaften des Filters wichtig sind, folgt ein kleiner Überblick über übliche Filter: Tabelle 1: übliche Filter und ihre Funktionen Filter Mittelwert Gaußfilter Median Kontrast Erosion Dilatation Closing Opening Sobel x, Sobel y Eigenschaft Glättung des Bildes Glättung des Bildes mit stärkerer Gewichtung der mittleren Pixel Glättung des Bildes mit Erhalt der Kantenschärfe Kantenextraktion Vergrößerung der dunklen Bereiche Vergrößerung der hellen Bereiche Schließung der Unterbrechungen an hellen Objekten Schließung der Unterbrechungen an dunklen Objekten Richtungsabhängige Kantenextraktion Closing Opening Kantenextraktion Sobel x Mittelwert Orginalbild Kantenextraktion Sobel y Dilatation Errosion Kontrast Abb. 3.6-10: Auswirkung verschiedener Filter 42 3.6.3 Auswertung Moderne Bildverarbeitungssysteme bieten umfangreiche Möglichkeiten, Informationen aus dem Bild zu gewinnen. In diesem Abschnitt soll ein kleiner Ausschnitt aus den möglichen Methoden gezeigt werden. 3.6.3.1 Kantenerkennung Um ein Objekt zu vermessen, muss der Ort der Kante erkannt werden. Durch die Beleuchtung muss die relevante Kante mit einem ausreichendem Kontrast im Bild dargestellt werden. Ist dies der Fall, kann bereits im Grauwertbild entlang einer Linie nach Helligkeitsunterschieden gesucht werden. Es werden zwei Verfahren unterschieden: Das Schwellwertverfahren und das Kontrastverfahren. Beim Schwellwertverfahren wird der genaue Ort der Kante durch einen Schwellwert repräsentiert. Dieses Verfahren ist sehr schnell, da entlang der Linie nur ein gewisser Grauwert gefunden werden muss. Der gefundene Ort der Kante kann jedoch durch Helligkeitsschwankungen wandern. Ein anderes Verfahren stellt das Kontrastverfahren dar. Bei ihm wird entlang der Linie die Stelle mit dem höchsten Kontrast, d. h. dem Ort mit der höchsten Helligkeitsänderung (1. Ableitung) gesucht. gefundene Position gefundene Position Weiß Schwellwert 1. Ableitung Grauwert Weiß Schwarz Schwarz Position Grauwertübergang entlang der Suchlinie Abb. 3.6-11: Schwellwertverfahren Position Grauwertübergang entlang der Suchlinie Abb. 3.6-12: Kontrastverfahren Bei einer Vermessung werden in der Regel im Suchfenster sehr viele Punkte bestimmt, die den Verlauf der Kante repräsentieren. Über diese Punkten können verschiedene Maße wie maximaler, minimaler oder mittlerer Abstand ermittelt werden. Letzterer wird mit Hilfe einer durch lineare Regression ermittelten Ausgleichsgerade gemessen. Als Abstandmaß wird der Abstand der Geraden ermittelt. Auf die selbe Weise werden auch andere Formen durch Ausgleichgeometrien wie Kreise und Ellipsen angenähert, um sie vermessen zu können. Suchbereiche gefundene Punkte maximaler Abstand minimaler Abstand mittlerer Abstand Abb. 3.6-13: Geradenantastung Ausgleichgeraden 43 Ausgleichskreis Suchbereich gefundene Punkte Abb. 3.6-14: Kreisantastung 3.6.3.2 Blobanalyse Bei der Blobanalyse werden im Binärbild zusammenhängende schwarze oder weiße Flächen, sogenannte Blobs (binary large object) gesucht. Die gefundenen Bereiche können auf ihre Eigenschaften untersucht werden. Mögliche Eigenschaften sind Schwerpunkt, Fläche, Umfang, längste bzw. kürzeste Ausdehnung usw. Mit den Ergebnissen lassen sich z. B. die Anzahl der Objekte bestimmen, die die geforderten Eigenschaften besitzen. Im hier gezeigten Beispiel soll die Anzahl der Bohrungen in einem Bauteil überprüft werden. zusammenhängende weiße Flächen suchen Blobs mit abweichenden Eigenschaften Anzahl überprüfen Anzahl = 8 o.k. Abb. 3.6-15 Beispiel für eine Blobanalyse 3.6.3.3 Mustererkennung I In der Bildverarbeitung muss oft ein Objekt bzw. ein Merkmal im Bild gefunden werden. Dazu wird ein Objekt oder Merkmal aufgenommen, markiert und im Speicher des Systems als Muster hinterlegt. Dieser Vorgang wird in der Regel als Einlernen bezeichnet. Im neuen Bild wird versucht, dieses Muster wieder zu finden. Für dieses Wiederfinden kommen eine Vielzahl von unterschiedlichen Algorithmen zum Einsatz. Sie unterscheiden sich in ihrer Schnelligkeit, Genauigkeit und Flexibilität. Die einfachsten Algorithmen können nur Objekte mit gleicher Größe und ohne Verdrehung finden. Andere Algorithmen können das Muster in jedem Drehwinkel im neuen Bild wieder finden. Seit wenigen Jahren werden sehr flexible und dennoch schnelle Algorithmen angeboten, die trotz Verdrehung, Größenänderung, Beleuchtungsänderung und sogar teilweiser Verdeckung das Muster dennoch sicher finden. Diese Eigenschaften der sogenannten grauwertbasierten Algorithmen werden als verdrehungs-, größen-, beleuchtungs- und verdeckungsinvariant bezeichnet. Der Anwender muss die Grenzen des von ihm ausgewählten Verfahrens kennen, um sicherzustellen, dass die Aufgabe unter den gegebene Bedingungen sicher gelöst wird. Ist z. B. nicht sichergestellt, dass das Objekt immer in der richtigen Drehlage im Bild erscheint, muss ein Algorithmus verwendet werden, der verdrehungsinvariant ist. Die 44 Algorithmen geben als Ergebnis ein Übereinstimmungsmaß (Score) zwischen eingelerntem Muster und gefundenen Muster an. Dem Bediener wird die Möglichkeit gegeben, ein Grenze anzugeben. Wird für ein Objekt dieser Wert unterschritten, wird es nicht als erkannt markiert. Eine typische Grenze ist 0,8, d. h. das System muss ein Objekt mit mindesten 80% der hinterlegten Merkmale im neuen Bild finden. im Speicher hinterlegtes Muster Abb. 3.6-16: Bild mit einzulernendem Muster Abb. 3.6-17: neues Bild mit gefundenen Mustern Die erwähnten grauwertbasierten Algorithmen eignen sich hervorragend für das sogenannte Robot-Vision. In immer mehr Bereichen der Industrie, vor allem in der Automobilindustrie, werden Roboter eingesetzt. Sie fahren vorgegebene Koordinaten ab, z. B. um Bauteile aufzunehmen und abzulegen oder um Bauteile zu verkleben der zu verschweißen. Ohne den Einsatz von Bildverarbeitungssystemen müssten Objekte immer sehr genau positioniert werden, damit die im Roboter hinterlegten Koordinaten mit den Koordinaten des Objektes übereinstimmen. Diese Positionierung ist störanfällig, sehr aufwändig und damit teuer. Ist ein Objekt verschoben, kann der Roboter darauf nicht reagieren. Die Bildverarbeitung macht den Roboter „sehend“. Sie wertet das Bildfeld aus, sucht die hinterlegten Muster und übergibt die nötigen Koordinaten an den Roboter. Beim hier dargestellten Beispiel handelt es sich um das Entpalettieren von Motorbauteilen. Vor dem Einsatz eines Bildverarbeitungssystems mussten die Bauteile immer genau positioniert sein. Durch die Verwendung eines Systems kann auf eine genaue Positionierung verzichtet werden. Das Muster des Bauteils wird in das System eingelernt und im Bild gesucht. Die Koordinaten und der Drehwinkel werden an den Roboter übertragen, welcher dann die Bauteile greift und an der vorgesehenen Position ablegt. Im Bild sind gefundene Übereinstimmungen durch einen roten Rahmen und fehlende Übereinstimmungen durch einen gelben Rahmen markiert. 45 Abb. 3.6-18: Grauwertbasierte Mustererkennung Werksbild der Firma ISRA, Darmstadt 3.6.3.4 Vorgehensweise bei der Erstellung von Prüfprogrammen Bei der Komplexität der möglichen Anwendungen ist es unmöglich, ein einheitliches Lösungskonzept zu erstellen. Die übliche Vorgehensweise ist aber oft die gleiche. Nach dem Schritt der Bildaufnahme muss die Notwendigkeit einer Bildvorverarbeitung geprüft werden. Je nach verwendetem System und den späteren Algorithmen muss das Bild binarisiert werden. Danach werden Bereiche definiert, die untersucht werden müssen. Oft sind relevante Objekte nicht an der selben Position, so dass die Suchbereiche dynamisch für jedes Bild neu positioniert werden müssen. Dazu eignet sich z. B. eine gefundene Kante, ein Blob, ein Muster oder ähnliche Merkmale. Nun können relativ zu den Positionen Suchlinien oder Arbeitsbereiche definiert werden, um alle relevanten Informationen aus dem Bild zu gewinnen. Es können je nach System Vollständigkeitskontrollen, Vermessungen, Mustererkennungen, Texturanalysen, Druckbildkontrollen, Schrift- und Codeerkennungen und vieles mehr durchgeführt werden. Für jedes Problem gibt es mehrere Lösungswege. Ziel ist aber, eine möglichst einfache und daher schnelle und dennoch prozesssichere Lösung zu finden. Der Bediener muss sicherstellen, dass Merkmale, die er verwendet, immer eindeutig und vor allem immer in der geforderten Form vorhanden sind. Positioniert man einen Suchbereich nach einem Muster muss dieses natürlich immer vorhanden ist. Wird nach einem Blob einer gewissen Größe gesucht, darf dieser durch Prozessschwankungen nicht außerhalb der tolerierten Größe liegen. Wird eine Kante verwendet, muss diese mit ausreichendem Kontrast dargestellt sein und nicht z. B. durch Fremdlicht überblendet sein. Für den Einsatz von Bildverarbeitungssystemen ist es besonders wichtig, zu Beginn eines Projektes genau zu definieren, was das System tun soll, bzw. welche Merkmale wie untersucht werden sollen, und welche Parameter sich ändern können. Diese Arbeit bedingt das gesamte weitere Vorgehen und ist daher bestimmend für die Kosten und die Erfolgsaussicht. Sie wird daher in einem späteren Kapitel noch näher beschrieben. 46 3.6.3.5 Genauigkeit der Algorithmen Bei der Planung von Bildverarbeitungssystemen wird fast immer nach der Genauigkeit der Auswertung gefragt. Die Genauigkeit solcher Systeme hängt von vielen Faktoren ab. Diese Frage kann daher nicht wie bei Messgeräten mit einer Zahl oder einer prozentualen Abweichung beantwortet werden. Wichtigster Faktor ist die Pixeldimension. Sie ist die kleinste darstellbare Einheit. Sie wird bestimmt durch die Größe des aufgenommenen Bildes und die Auflösung der Kamera. Wird ein Bildfeld von 5 cm x 5 cm durch eine Kamera mit 1000 x 1000 Pixeln aufgenommen, entspricht ein Pixel einer Länge von 50 µm. Wird mit der selben Kamera ein Bildfeld von 5 m x 5 m aufgenommen, entspricht ein Pixel 5 mm. Die Genauigkeit hängt also in erster Linie von der Größe des Bildes ab. Die Messgenauigkeit wird daher in der Regel als Bruchteil von Pixeln angegeben. Sie hängt neben der Bildgröße auch von der Beleuchtung, dem damit verbundenen Kontrast, der Bildqualität und den jeweils verwendeten Algorithmen ab. Hersteller geben als theoretischen Wert für die Genauigkeit 1/10 Pixel, einige Firmen sogar 1/40 Pixel an. In der Realität werden oft 1/3 Pixel angenommen. Diese Werte können jedoch nur durch statistische oder Approximationsverfahren erreicht werden. Bei der Kantenerkennung kann man unter guten Bedingungen die genaue Lage der Kante im Subpixelbereich abschätzten. Der Grauwert, den ein Sensorelement liefert, wird durch die mittlere Beleuchtungsstärke seiner Fläche bedingt. Wird im entstandenen Bild entlang einer Linie nach einer Kante gesucht, kann der stufenähnliche Grauwertverlauf durch Interpolationslinien dem tatsächlichen Verlauf der Beleuchtungsstärke genähert werden. Die Interpolationslinie liefert bei Verwendung des Schwellwertverfahrens Kantenpositionen, die zwischen den Pixeln liegen. Es wird eine Position im Subpixelbereich bestimmt. Da es sich um eine Abschätzung handelt, kann es auch zu Fehlern kommen. In der Abbildung ist ein Objekt gezeigt, welches das selbe Bild und damit die gleiche Kante liefern würde. Der maximale Abstand der beiden Kanten ist jedoch ein anderer. Auf Sensor abgebildetes Objekt 1 geschätzte Positionen entstandenes Bild Weiß Grauwert Interpolations -linie Schwellwert Schwarz Suchlinie Position Grauwertübergang entlang der Suchlinie Auf Sensor abgebildetes Objekt 2 Abb. 3.6-19: Kantenantastung im Subpixelbereich 47 In vielen Anwendungen werden die Koordinaten eines Objektes errechnet. Dies kann z. B. durch eine Schwerpunktberechnung geschehen. Durch die beschränkte Auflösung wird ein Objekt gerastert, d. h. der Ort der gefundenen Kanten entspricht nicht der genauen Position der tatsächlichen Kante. Je mehr Punkte als Grundlage für die Positionsbestimmung verwendet werden, desto genauer ist die errechnete Position, da sich die Abweichungen der einzelnen Punkte herausmitteln. Es sind ebenfalls alle Bildfehler (Verzeichnung, Halbbildversatz, Verzerrung...) zu beachten, die die Abbildung eines Objektes und damit ihre Merkmale verändern. Grundsätzlich wird die Genauigkeit größer durch: - 3.7 höhere Auflösung kleineres Bildfeld angepasste Optik (geringe Verzeichnung, telezentrisch, hohe Tiefenschärfe ...) angepasste Beleuchtung (hoher Kontrast, scharfe Kanten) angepasste Hardware Interpolation größere Anzahl an Stützpunkten bzw. Merkmalen Kommunikationseinheit Die Kommunikationseinheit hat die Aufgabe die ermittelten Ergebnisse an ein übergeordnetes System oder direkt an die Reaktionseinheit zu übermitteln. Die Ergebnisse können bestimmt sein für: - Bedienpersonal Prozesssteuerung Qualitätsdatenbank Reaktionseinheit Je nach Bestimmungsort stehen verschiedene Möglichkeiten zur Verfügung: 3.8 Bildschirmanzeigen, Signallampen digitale Ein- und Ausgänge serielle Schnittstellen (RS-232) sonstige Schnittstellen (CAN-Bus, Profibus ....) Reaktionseinheit Die Reaktionseinheit hat die Aufgabe, die vom Ergebnis abhängige Aktion auszuführen. Reaktionen können sein: - das Greifen eines Bauteils durch einen Roboter nach Lagebestimmung Ausschleusung von Teilen mit unzureichenden Eigenschaften Änderung der Prozeßparameter Markierung defekter Zonen auf Bandmaterial Sortierung von Objekten 48 3.9 Allgemeiner Aufbau eines Bildverarbeitungssystems Nachdem die einzelnen Komponenten genauer vorgestellt sind, kann nun die anfängliche Beschreibung eines Gesamtsystems genauer formuliert werden. Für die Bilderfassung muss ein vorhandenes Objekt beleuchtet werden. Die durch die Beleuchtung hervorgehobenen Merkmale des Objektes werden durch die Optik auf den Sensor abgebildet. Der Sensor muss das Licht in verwertbare elektrische Signale umwandeln, welche an die Bilderzeugungseinheit übertragen werden. Das (fehlerbehaftete) Bild wird einer Auswerteeinheit zur Verfügung gestellt, die dieses Bild durch ausgewählte Algorithmen auswertet und ein Ergebnis errechnet. Diese Algorithmen werden durch die Bedienschnittstelle ausgewählt. Das Ergebnis wird über Kommunikationsschnittstellen an ein übergeordnetes System oder direkt an eine Reaktionseinheit übertragen, welche die von dem Ergebnis abhängige Reaktion ausführen soll. Objekt / Prozeß / Materialfluß Bediener Bedienschnittstelle Algorithmen Optik Signal Bilderzeugung Bild Auswertung Sensor Kommunikationsschnittstelle Aktion Reaktionseinheit Übergeordnetes System Abb. 3.9-1: allgemeiner Aufbau eines Bildverarbeitungssystems 49 4 Hard- und Software für Applikationen Die Kosten für ein Bildverarbeitungssystem waren früher sehr hoch. Man benötigte Softwarespezialisten, die alle nötigen Softwaremodule vollständig programmieren mussten. Die nötigen Algorithmen wurden speziell für jede Applikation angepasst oder sogar neu entwickelt. Jede Anlage war meist eine Einzellösung, die fast vollständig neu entworfen werden musste. Die Hardware war sehr speziell und damit teuer. Die Kosten solcher Systeme lagen durch die hohen Entwicklungskosten in der Regel weit über 100.000 DM. Durch die Standardisierung der Soft- und HardwareKomponenten können heute Lösungen unter 20.000 DM realisiert werden. Lösungen einfacher Problemstellungen sind sogar direkt vom Anwender ohne die Hilfe von Spezialisten möglich. Für diesen Einsatz werden mittlerweile sehr viele Komponenten angeboten, welche sich grundlegend im Hardwareansatz unterscheiden. 4.1 Ansätze im Hardwareaufbau Je nachdem wo die beschriebenen Komponenten im System untergebracht sind, können die Systeme in unterschiedliche Kategorien unterteilt werden, wobei die Grenzen zwischen diesen Kategorien fließend sind. Es ist möglich, zwischen intelligenten Kameras, Kameras mit externer Auswertehardware, PC-Kameras und PC-basierten Systemen zu unterscheiden. Im folgenden werden zunächst allgemein die Vor- und Nachteile solcher Systeme diskutiert und dann exemplarisch verschiedene am Markt erhältliche Produkte vorgestellt, die im Laufe dieser Diplomarbeit als Leihgeräte für ausführliche praktische Test zur Verfügung gestellt wurden. Dabei ist der Hinweis wichtig, dass diese Produkte nicht für Vergleichszwecke getestet wurden. Die Produkte unterscheiden sich erheblich im Einsatzweck, in der Leistungsfähigkeit, in der Flexibilität und im Anschaffungspreis. Die hier vorgestellten Produkte zeigen eine Momentaufnahme eines kleinen Spektrums im äußerst vielfältigen und dynamischen Markt der Bildverarbeitung. Wie im PC-Markt sind auch hier die Zeitabstände zwischen den Neuentwicklungen sehr kurz, d. h. die hier vorgestellten Produkte können in einem Jahr bereits veraltet oder gar nicht mehr am Markt erhältlich sein. Dennoch ist es sinnvoll an ihnen die grundsätzlichen Vor- und Nachteile solcher Systeme zu zeigen. 4.1.1 Intelligente Kamera Als intelligente Kameras werden solche Systeme bezeichnet, bei denen alle Komponenten in miniaturisierter Form in ein Gehäuse integriert sind. D. h. neben Optik und Sensor incl. Elektronik sind in das Gehäuse ein Framegrabber, die Auswerteeinheit – meist ein digitaler Signalprozessor (DSP) –, eine Speichereinheit, die Kommunikationseinheit in Form von digitalen Ein- und Ausgängen samt serieller Schnittstelle, wie auch ein Anschluss für einen Bildschirm eingebaut. Diese Systeme sind nicht viel größer als reine Kameras. Ihr Vorteil liegt vor allem in ihrer geringen Größe, bei dennoch erstaunlicher Leistungsfähigkeit. Sie haben den Vorteil, dass sie keine Infrastruktur wie PC-basierte Systeme benötigen (siehe 4.1.4). Die intelligente Kamera passt z. B. im Falle eines rauen Produktionsumfeldes, wie es bei der Heißformgebung in der Glasproduktion vorliegt, in das selbe Kühlgehäuse, das auch für die Videokamera nötig gewesen wäre. Wie bei der Videokamera sind die Anschlussleitungen gesondert vor Hitze zu schützen. Insgesamt spart man also bei diesem System vollständig die sonst nötige und sehr kostenintensive Peripherie. 50 Die intelligenten Kameras haben trotz ihre geringen Größe eine weites Spektrum an unterschiedlichen Einsatzbereichen. Um sie einzurichten, wird ein PC, z. B. ein Laptop, benötigt, auf dem mit der zugehörigen Software die Prüfprogramme erstellt werden und über die serielle Schnittstelle in die Kamera übertragen werden. Dies ist nötig, da in der Kamera nicht genügend Speicherplatz vorhanden ist, um die Bediensoftware, alle nötigen Algorithmen, die notwendigen Musterbilder, mehrere Prüfprogramme und Fehlerbilder abzulegen. So lagert man die Bediensoftware und die Bibliothek mit den Algorithmen auf den Laptop aus, an dem die nötigen Prüfbefehle ausgesucht und parametriert werden. Das so erstellte Prüfprogramm wird in die für die Kamera verständliche Maschinensprache übersetzt und übertragen. Sobald man die Kamera einschaltet, wird das Prüfprogramm ausgeführt, wobei im Speicher der Kamera mehrere Programme hinterlegt werden können, zwischen denen durch die vorhanden Schnittstellen umgeschaltet werden kann. Die jeweiligen Prüfergebnisse können über die serielle Schnittstelle an das übergeordnete System übermittelt werden. Über die digitalen Ausgänge kann je nach Ergebnis ein Vorgang freigegeben oder gestoppt werden. Für Versuchszwecke wurde von der Firma FiberVision eine leistungsfähige intelligente Kamera PICTOR M1108 von Vision&Control zur Verfügung gestellt. Bei diesem Modell kommt ein Progressive-Scan-Chip mit einer Auflösung von 640 x 480 Bildpunkten und quadratischen Pixeln zum Einsatz. Die Speicherkapazität beträgt für Bilder 8 MB DRAM, das entspricht 17 Vollbildern oder 34 Halbbildern und für Programme und Daten steht ein 2 MB EPROM-Speicher zur Verfügung. Für die Kommunikation stehen neben der seriellen RS-232 Schnittstelle noch 4 digitale Ein- und ebenfalls 4 digitale Ausgänge zur Verfügung. Die Abmessungen betragen 100 mm x 50 mm x 36 mm und das Gewicht beträgt ca. 250 g. Die Software erlaubt es, die Kamera sehr komfortabel einzurichten. Sie ist menügesteuert und intuitiv zu bedienen. Ist der Bediener mit der Materie der Bildverarbeitung etwas vertraut, sind die meisten Befehle, die in einer umfangreichen Bibliothek hinterlegt sind, selbsterklärend. Eingerichtet wird im Bildschirm des Laptops, die Auswirkungen der Befehle können gleich an dem an die Kamera angeschlossen Ausgabebildschirm nach einem Testlauf betrachtet werden. Suchfenster und Arbeitsbereiche lassen sich leicht einrichten, indem man durch einen Doppelklick mit der rechten Maustaste die Maussteuerung im Eingabebildschirm des Laptops deaktiviert und einen Cursor im Ausgabebildschirm erzeugt, mit dem man die Fenster in der Größe verändern und verschieben kann. Durch einen weiteren Doppelklick wird die Maussteuerung des PC wieder aktiviert. Befehle kann man löschen und einfügen, ihre Reihenfolge nachträglich ändern. Erstellte Befehle werden entsprechend ihre Reihenfolge auf der Programm-Oberfläche VC-Win mit den zugehörigen wichtigsten Parametern dargestellt, was für die Übersicht eines Prüfprogramms sehr vorteilhaft ist. Aufgenommene Bilder lassen sich auf den PC übertragen, jedoch ist die Übertragung über die Schnittstelle sehr langsam und es wird nur das eigentliche Bild abgespeichert ohne zusätzliche Bildschirm-Overlays. Die Software erkennt bei der Initialisierung der Verbindung automatisch, um welchen Kameratyp es sich handelt, und gibt dementsprechend nur die vom Modell unterstützten Befehle frei. Dieses System zeichnet sich durch seinen geringen Platzbedarf und die niedrigen Kosten für die Peripherie aus. Ist die Leistungsfähigkeit ausreichend und ist eine Veränderung der Prüfroutinen selten nötig, lassen sich mit diesem System kompakte und günstige Lösungen realisieren. 51 Abb. 4-1: Eingabebildschirm VC-Win Abb. 4-3: Pictor M1108 Abb. 4-2: Ausgabebildschirm VC-Win Abb. 4-4: Eingebauter Pictor Werksbild der Firma VISION & CONTROL, Suhl 4.1.2 Kamera mit externer Auswertehardware Diese Systeme haben ähnliche Komponenten wie die intelligente Kamera. In diesem Ansatz ist der Sensor und die Optik vom Rest des Systems getrennt. Es wird ebenfalls keine PC-Struktur verwendet, sondern es kommen DSPs zum Einsatz. Das Zentralgerät mit integrierter Bilderzeugung, Auswertung und Kommunikation kann an beliebigen Stellen positioniert werden. Üblicher Einsatzort ist ein naher Schaltschrank. Die Abmessungen sind größer als bei der intelligenten Kamera, da diese Systeme höhere Rechenleistung und Speicherplatz besitzen. In der Regel sind daher Bediensoftware und die Algorithmen im Gerät integriert, so dass Prüfprogramme ohne Zusatzgeräte erstellt werden können. Diese Geräte eignen sich für Applikationen bei denen die Platzverhältnisse ebenfalls beengt sind und auf die Parametrierung ohne Zusatzgeräte gewünscht ist. Von der Firma Matsushita wurde eine Micro-Imagechecker A200 bereitgestellt. Das System besteht aus einer Progressive-Scan-Kamera mit 512 x 480 Pixel einem 32-bit RISC Prozessor 14 Ausgängen, 11 Eingängen, zwei RS-232 Schnittstellen. Es kann mit bis zu drei weiteren Kameras, die an der selben Auswerteeinheit betrieben werden, ausgebaut werden. Es hat die Abmessungen 120 mm x 40 mm x 74 mm und ein Gewicht von ca. 300 g. Die Verkabelung und Inbetriebnahme dieses Gerätes gestalten sich sehr einfach. Es sind kleine praktische Hilfsroutinen hinterlegt, die den Anwender bei der korrekten Einstellung von Blende und Fokus unterstützen. Die implementierte Bibliothek ist sehr umfangreich und mit ihr können die meisten Standard-Bildverarbeitungsaufgaben gelöst werden. Der vorhandene Auto-Trigger kann hervorragend für Messungen an schnellen Fließbändern eingesetzt werden. Er ermöglicht es, das 52 Bildfeld mit sehr hohen Bildraten aufzunehmen, da nicht jedes Bild ausgewertet werden muss. Erst wenn sich ein Objekt an der korrekten Stelle befindet, d. h. wenn in einem vorher definierten Suchbereich ein Hell/Dunkelübergang stattfindet, wird die Auswertung aktiviert. Bei normalen Systemen muss die Anzahl der Auswertungen incl. der Bildaufnahme pro Sekunde bzw. der Prozesstakt, so gewählt werden, dass jedes Teil mindestens einmal vollständig im Bild ist und somit korrekt ausgewertet werden kann. Durch diesen Auto-Trigger ist die Auswertezeit nicht mehr so kritisch, da sie nicht bei jedem Bild ausgeführt werden muss, wodurch der mögliche Prozesstakt maximiert wird. Auch kann dieser Trigger eine oft notwendige Lichtschranke ersetzen. Des Weiteren können auch hauseigene Beleuchtungskomponenten der Firma Matsushita direkt an das A200 angeschlossen, mit Strom versorgt und auch gesteuert werden. Bei der Entwicklung dieses Systems wurde allem Anschein nach mehr Wert auf die Leistungsfähigkeit sowohl in der Auswertezeit als auch in der Zeit für die Bildaufnahme (8,4 ms) als auf die Bedienbarkeit gelegt. Die Bedienung dieses Gerätes ist nicht selbsterklärend, wobei dies natürlich nur ein subjektiver Eindruck ist. Durch die beschränkte Anzahl an Tasten gestaltet sich die Bedienung an einigen Stellen umständlich. Laut Hersteller war es gerade das Ziel, ein Bedienkonzept ohne eine komplexe Menü- und Maussteuerung mit wenigen überschaubaren Tasten zu entwickeln, da das Personal oft keine Erfahrung mit Windows-Systemen besitzt. Hat man aber das Bedienkonzept einmal verstanden, können leistungsfähige Prüfprogramme erstellt werden. Dieses Gerät zeichnet sich durch seinen attraktiven Preis und die hohe Geschwindigkeit aus. Es ist sinnvoll einzusetzen, wenn hohe Taktraten und geringer Platzbedarf gefordert sind und komplexe Änderungen an den Prüfprogrammen nur selten notwendig sind. Abb. 4-5: A200 der Firma Matsushita Das zweite Gerät dieser Bauart war das von einem Vertriebsingenieur vorgestellte InSight 2000 der Firma Cognex. Dieses Paket besteht aus einer digitalen Progressive-Scan-Kamera mit 800 x 600 Pixeln, einem 4 MB großen Flashspeicher für fast 20 Verarbeitungsprogramme, 16 MB SDRAM Arbeits- und Bildspeicher, einem Keypad, 10 digitalen Ein- und Ausgängen, und zwei RS-232 Schnittstellen. Das Gerät hat die Abmessungen 293 mm x 143 mm x 46 mm und ein Gewicht von 970 g. Schon die Abmessungen dieses Systems liegen wie auch der Preis in der oberen Kategorie. 53 Das System zeichnet sich durch ein hervorragendes Bedienkonzept und eine äußerst umfangreiche Bibliothek an Algorithmen aus. Die Darstellungsmöglichkeiten am Bildschirm sind außergewöhnlich gut. Auch die Verwendung einer digitalen Kamera, die prinzipbedingt eine sehr gute Bildqualität liefert und deren Belichtungszeit gesteuert werden kann, ist selten. Als Eingabegerät fungiert ein Keypad, wie es z. B. auch bei Spielkonsolen eingesetzt wird. Ungewöhnlich ist Verwendung eines Eingabe-Spreadsheet. Dies erscheint auf den ersten Blick etwas ungewohnt, funktioniert aber ausgesprochen gut. Für Anwender, die bereits mit Tabellenkalkulationsprogrammen gearbeitet haben, ist die Bedienung sehr einfach. Die Prüfbefehle werden mit den zugehörigen Parametern und späteren Ergebnissen in einzelne Zellen geschrieben. Alle Zellen können wie gewohnt mit verschiedenen Operatoren verknüpft werden. Dieses Spreadsheet ermöglicht eine Flexibilität wie sie eigentlich nur von programmierten Lösungen bekannt ist. Am Bildschirm lassen sich Eingabefenster darstellen und ggf. mit Passwortschutz versehen, die es dem Maschinenbediener erlauben, Toleranzen zu ändern. Das laufende Programm kann von Personen mit den nötigen Zugriffsrechten während des Betriebes verändert werden. Bei der Eingabe kann das Eingabespreadsheet halbtransparent dargestellt werden, wodurch die Auswirkungen auf den Betrieb sofort im Hintergrund erkennbar sind. Neben dem guten Bedienkonzept fällt auch die Anzahl der auswählbaren Prüfbefehle auf. Dieses System enthält viele der bereits von den PC-Systemen der Firma Cognex bekannten Algorithmen in gleicher oder ähnlicher Form, z. B. einen leistungsfähigen grauwertbasierten Algorithmus. Das vorgestellte System hat allerdings einen hohen Preis. Es ist dennoch interessant für Anwendungen, bei denen PC-basierte Systeme zuviel Platz benötigen würden, aber eine ähnliche Leistungsfähigkeit gefordert ist und eine häufige Änderung oder Neuerstellung von Prüfprogrammen durch Personen mit geringen Programmierkenntnissen notwendig ist. Abb. 4-6: Komponenten des InSight 2000 Werksbild der Firma Cognex Abb. 4-7: Bildschirm mit halbtransparentem Spreadsheet und im Automatikbetrieb Werksbild der Firma Cognex 54 4.1.3 PC-Kamera Als PC-Kameras werden Kameras bezeichnet, bei denen wie bei der intelligenten Kamera alle Komponenten in einem Gehäuse integriert sind. Nur ist im Gegensatz zu anderen Systemen hier ein vollständiger PC mit allen üblichen Elementen wie Festplatte, Betriebssystem, Arbeitsspeicher und üblichen Schnittstellen im Gehäuse vorhanden. Dies wird durch die Verwendung von miniaturisierten Komponenten des PC-Marktes, speziell aus dem Laptop-Bereich, ermöglicht. So ist auch verständlich, dass das Volumen dieser Geräte im Vergleich zu den intelligenten Kameras größer ist. Da es sich um einen vollständigen PC handelt, bietet diese Bauart ähnliche Flexibilität und Leistungsfähigkeit wie PC-basierte Systeme. Einzige Einschränkung ist auch hier die notwendige Kompatibilität zwischen Softund Hardware. Auch diese Kameras werden in verschiedenen Ausführungen in Rechenleistung, Auflösung und Speicherkapazität angeboten. Durch ein Standardbetriebssystem, meist auf Windows-Basis, können verschiedene Bildverarbeitungsprogramme installiert werden. Es kann zwischen selbst erstellten Programmen oder parametrierbaren Softwarepaketen ausgewählt werden, was bei den bisher beschriebenen Geräten nicht möglich ist, da die verwendete Software dies nicht zulässt. So ist es möglich, dieses System durch Bibliotheken mit den jeweiligen Algorithmen, die entweder zugekauft oder selbst programmiert werden, den eigenen Anforderungen anzupassen. Prüfprogramme werden wie bei den PC-basierten Systemen durch die gewählte Software über die zur Verfügung gestellten Schnittstellen bzw. Oberflächen mit Maus und Keyboard programmiert oder parametriert. Ein Nachteil dieser Geräte ist, dass im Falle eines Defektes nicht, wie beim PC, jede Komponente einzeln ausgetauscht werden kann, sondern, da die Komponenten oft als Baugruppen zusammengefasst sind ein vollständiger Austausch der Baugruppe notwendig ist. Ein Gerät der Firma SAC aus Karlsruhe konnte im Rahmen einer Messevorführung getestet werden. Bei dem gezeigten Gerät handelte es sich um eine CamALot III mit 740 x 540 Pixeln, 64 MB Arbeitsspeicher, einer 1,2 GB Festplatte, einem Intel Pentium Prozessor, mit Windows 98 als Betriebssystem, 11 digitalen Ausgängen, 9 digitalen Eingängen, einer seriellen Schnittstelle, einer parallelen Schnittstelle, sowie einer Netzwerkkarte und der firmeneigenen Software SAC-Coake, einem sogenannten Bildverarbeitungsinterpreter, der die Erstellung von komplexen Prüfprogrammen ohne Programmierkenntnisse über eine grafische Programmierschnittstelle mittels Drag & Drop ermöglicht. Dieses Programm wird später noch näher beschrieben. Auch die anderen Softwarepakete der Firma, die auf spezielle Anwendungen ausgelegt sind, sind kompatibel zu diesem Kameramodell. Es lassen sich ebenfalls eigene Algorithmen oder Programme auf dem Betriebssystem implementieren, um die Funktion der Kamera den eigenen Anforderungen anzupassen. So kann dieses Modell z. B. durch die Netzwerkkarte an ein firmeneigenes Netzwerk angeschlossen und von einem Arbeitsplatz im Bürobereich aus gewartet werden. Die Kamera kann auch mit Programmen eingesetzt werden, die anhand der Ergebnisse des Prüfprogramms gewisse Regelfunktionen oder Prozesssteuerungen ausführen. Da es sich um ein System mit integriertem PC handelt, ist die Leistungsfähigkeit dieses Systems von den jeweils eingesetzten Komponenten und vor allem von der verwendeten Software abhängig. Die Leistungsfähigkeit der PC-Kameras ist im Vergleich zu PC-basierten Systemen meist schlechter, da die miniaturisierten Komponenten aus dem Laptop-Bereich geringere Leistungsdaten besitzen. 55 Solche Systeme eignen sich für Anwendungen, bei denen die Flexibilität von PCbasierten Systemen benötigt wird, der zur Verfügung stehende Platz aber eingeschränkt ist. Abb. 4-8: PC-Kamera der Firma SAC Werksbild der Firma SAC, Karlsruhe 4.1.4 PC-basierte Systeme Dieser Ansatz verwendet Komponenten aus dem Computermassenmarkt, die durch Komponenten für den Einsatz in der Bildverarbeitung erweitert werden. Diese Systeme bieten die höchste Flexibilität, da sie den Anforderungen der jeweiligen Applikation angepasst werden können. Die Rechenleistung der Systeme nimmt stetig zu, da die Rechenleistung der Computer ständig weiter gesteigert wird. Dieser Leistungsgewinn wird ohne Einsatz von Entwicklungskosten erreicht. Allerdings benötigen solche Systeme sehr viel Platz für PC, Bildschirm und alle Anschlüsse, was an einigen Stellen in der Produktion gar nicht möglich ist oder sehr viel Aufwand verursacht. Bei schwierigen Verhältnissen im Produktionsumfeld, wie z. B. bei der Heißformgebung in der Glasproduktion, sind Vorkehrungen zum Schutz der Hardware wie etwa klimatisierte Schaltschränke nötig. Mittlerweile bieten aber viele Hersteller PC-basierte Lösungen an. Wichtigster Bestandteil der PC-basierten Systeme ist die Software. Durch sie können die gewünschten Prüfprogramme auch vom Anwender selbst erstellt werden. Je nach Fachwissen des Anwenders sind unterschiedliche Softwarevarianten erhältlich. 4.2 Softwarebibliotheken Wurden früher alle Algorithmen für die Bildverarbeitung selbst programmiert, sind heute Software-Bibliotheken erhältlich. Sie bestehen aus einer Zusammenstellung von Verfahren, mit denen die Bilder ausgewertet werden. Neben den Algorithmen enthalten diese Sammlungen auch Module zur Bilderfassung und zur Visualisierung. Diese Produkte setzen jedoch ein hohes Maß an Programmiererfahrung voraus. Sie erleichtern auf der einen Seite die Erstellung einer Lösung erheblich, da die Algorithmen nicht selbst entwickelt werden müssen. Der Anwender muss aber noch einen erheblichen Teil an weiteren Modulen für die Gesamtlösung selbst programmieren. Die Algorithmen werden in der Entwicklungsumgebung in Form von sogenannten DLLs (dynamic link library) eingebunden, wobei festgelegte Anforderungen zu beachten sind. Es handelt sich dabei um einzelne Funktionen, denen Eingangsgrößen, wie Bilder und Parameter übergeben werden und die wiederum Ergebnisse in Form 56 eines Bildes, von Zahlenwerten o. Ä. zurückgeben. Ein Beispiel für diese Art der Bibliothek ist das Produkt Halcon der Firma MVTec. Eine Weiterentwicklung dieser Softwareschnittstelle ist die ActiveX-Schnittstelle. Sie ermöglicht eine einfachere Einbindung von Bildverarbeitungsfunktionen. Die bei DLLs noch umständliche Einbindung vereinfacht sich durch diese Schnittstelle erheblich. Solche Produkte werden vermehrt angeboten, da Entwickler mit weniger Programmiererfahrung durch sie schnell und dennoch sehr flexibel Programme erstellen können. Solche Produkte wurden in Verbindung mit Visual Basic im Rahmen dieser Arbeit ausführlich getestet. Solche Programme werden z. B. von der Firma Stemmer als Common Vision Blox und von der Firma Matrox als Matrox Imaging Library (MIL) angeboten. 4.2.1 Common Vision Blox (CVB) Bei diesem Produkt wird jede Funktion (Tool) einzeln angeboten. So müssen nur Tools gekauft werden, die auch für die jeweilige Applikation benötigt werden. Die Kosten für das Grundmodul liegen bei ca. 600 DM. Die Preise für die Tools liegen zwischen wenigen hundert Mark (Kantenerkennung) und mehreren Tausend Mark für die umfangreicheren Tools (Objekterkennung). Als Distributor für Bildverarbeitungskomponenten bietet die Firma Stemmer ein umfangreiches Produktspektrum aller nötigen Komponenten an. Da die gesamte Hard- und Software aus einer Hand geliefert werden, ist die Kompatibilität zwischen den einzelnen Elementen sichergestellt. Hier ein kleines Programmierbeispiel in Visual Basic, bei dem in einem geladenen Bild von einem Mittelpunkt aus kreisförmig nach der Kante gesucht wird. Es werden zuerst die Koordinaten für die Suchbereiche festgelegt bzw. errechnet. In einer Schleife wird das Tool mit den neu berechneten Parametern auf das dargestellte Bild angewendet und die gefundenen Punkte als Overlay angezeigt (Abb. 4-9) Das zur Befehlsschaltfläche „Bild laden“ gehörende Modul ist ein Standardtool des CVB. In der Entwicklungsumgebung wird das ActiveX-Element EdgeControl auf die Oberfläche abgelegt und kann direkt aus dem Programm ohne Deklaration im Programmtext aufgerufen. Die gefundenen Koordinaten können in einer Matrix abgelegt werden und stehen für weitere Auswertungen zur Verfügung. So könnte beispielsweise der Durchmesser der Öffnung durch einen Ausgleichskreis vermessen oder die Lage des Ausgusses erkannt werden. Quellcode: Private Sub Kante_Click() Dim I As Integer pi=3.141 ‘ Zuweisung des Bildes CVCEdgeControl1.image = CVdisplay1.image ‘ Schleife zur Berechnung des Suchbereiches für die kreisförmige Kantenantastung For I = -70 To 240 Step 10 CVCEdgeControl1.Threshold1 = 140 CVCEdgeControl1.x0 = 320 - 100 * Sin(I / 180 * pi) CVCEdgeControl1.y0 = 240 + 100 * Cos(I / 180 * pi) CVCEdgeControl1.x1 = CVCEdgeControl1.x0 - 5 * Cos(I / 180 * pi) CVCEdgeControl1.y1 = CVCEdgeControl1.y0 - 5 * Sin(I / 180 * pi) CVCEdgeControl1.x2 = 320 - 200 * Sin(I / 180 * pi) CVCEdgeControl1.y2 = 240 + 200 * Cos(I / 180 * pi) ‘ Ausführung der Kantenantastung CVCEdgeControl1.Execute ‘ Markierung des gefundenen Punktes CVdisplay1.AddLabel I, False, 255, 1, CVCEdgeControl1.px, CVCEdgeControl1.py Next I End Sub 57 Abb. 4-9: Bildschirm mit gefundenen Kantenpositionen Der Umgang mit solchen Tools ist sehr einfach und auch für unerfahrene Programmierer erlernbar. Für Anwender ohne Programmierkenntnisse ist dieses Produkt jedoch nicht sinnvoll einsetzbar. 4.2.2 Matrox Imaging Library Dieses Produkt der Firma Matrox ist dem Common Vision Blox sehr ähnlich. Es wird aber als vollständiges Paket mit allen verfügbaren Funktionen für mehrere Tausend Mark angeboten. Für jedes erstellte Programm, das eingesetzt wird, ist eine sogenannte Runtime-Lizenz zu erstehen. Die Kosten liegen hier bei mehreren hundert Mark. Da die Firma Matrox eine Vielzahl von Framegrabbern herstellt, ist für jede Anwendung ein kompatibler Framegrabber mit den jeweiligen Leistungsdaten erhältlich. Sehr interessant ist das Gerät Matrox 4Sight II. Es handelt sich dabei um eine kleinen PC, dessen Leistungsdaten ebenfalls den Anforderungen angepasst werden können. Die eingebaute Hardware ist kompatibel zur hauseigenen Software. So lassen sich sehr kompakte aber dennoch äußerst flexible Applikationen erstellen. Dieses Gerät ist auch auf den bereits erwähnten IEEE-1394-Bus ausgelegt. Dadurch ist auch die Verwendung von digitalen Kameras möglich. Abb. 4-10: Matrox 4Sight II Werksbild der Firma Matrox 58 4.3 Parametrierbare Software Alle bisher erwähnten Software-Produkte können nur von Anwendern mit Programmiererfahrung verwendet werden. Für Anwender, die auch ohne Programmierkenntnisse selbst Applikationen erstellen wollen, sind Produkte erhältlich, die Lösungen ohne Programmierung ermöglichen. Diese Programme werden nur parametriert, d. h. es werden vorgefertigte Prüfbefehle aneinandergereiht und mit den Eingangsparametern versehen. Das Ziel einfache Bedienbarkeit kann nur über die Beschränkung der Komplexität der Software erreicht werden. So ist durch die festgelegten Prüfbefehle und deren Eingangsgrößen die Flexibilität von solchen Programmen gegenüber der von programmierten Lösungen stark eingeschränkt. 4.3.1 NeuroCheck Die Software NeuroCheck ist Kernstück eines Leihsystems, das die Firma DS-GmbH aus Remseck für die Dauer dieser Arbeit zur Verfügung stellte. Dieses Produkt eignet sich hervorragend, eigene Applikationen ohne Programmierkenntnisse zu erstellen. Hierzu stehen vielfältige Prüfbefehle zur Verfügung, die per Maus ausgewählt und parametriert werden. Die Software ist äußerst leicht zu erlernen und zu bedienen. Mit ihr lassen sich dennoch leistungsfähige Applikationen erstellen. Es können verschiedene Benutzerprofile mit entsprechenden Zugriffsrechten definiert und durch Passwörter geschützt werden. Kommunikation über übliche Schnittstellen (seriell, parallel, digital ...) ist sehr einfach möglich. Diese Software eignet sich sehr gut, um im Rahmen einer Voruntersuchung zunächst eine schnelle Lösung zu erarbeiten. In der neuesten Version ist das Programm durch viele Internet- und Netzwerkoptionen erweitert worden. Das Layout der Visualisierung kann in Grenzen den eigenen Anforderungen angepasst werden. Es ist möglich, ein eigenes Programm mit entsprechender Oberfläche und Eingabefenstern zu nutzen, aus dem heraus NeuroCheck über die OLE-Schnittstelle (Softwareschnittstelle) gestartet und gesteuert werden kann. Zwischen den im NeuroCheck erstellten Prüfprogrammen und dem eigenen Programm können in beide Richtungen Daten ausgetauscht werden. So können von außen Sollwerte und Parameter in den einzelnen Prüfschritten verändert und Ergebnisse der Prüfungen aus einer Ergebnismatrix ausgelesen werden. Um die Flexibilität einer programmierten Lösung zu erreichen, wird dem Anwender die Möglichkeit geboten, eigene DLLs ins Programm als neue Prüfbefehle einzubinden. So können weitere Tools, die nicht im Programm enthalten sind, eingebaut werden. Diese Möglichkeit kann aber nur von erfahrenen Programmierern genutzt werden. 4.3.2 SAC-Coake Die Funktionsweise des SAC-Coake der Firma SAC aus Karlsruhe ist der des bereits vorgestellten Programms NeuroCheck ähnlich, einzelne Prüfbefehle werden in Form von Icons an eine frei wählbare Stelle im sogenannten Programmeditor gesetzt und im danach erscheinenden Fenster parametriert („Drag & Drop“). Nicht nur der Name CamALot der PC-Kamera zeugt von der Fantasie der Entwickler. Auch die Verwendung einiger Prüfbefehle ist sehr kreativ und praktisch gelöst. So können Suchbereiche für Vermessungsaufgaben durch einen im Bild erscheinenden Messschieber eingerichtet werden. Er hebt sich nicht nur durch sein Erscheinungsbild, sondern auch durch seine komfortable Bedienung von den 59 restlichen auf den Markt befindlichen Produkten ab. Der Messschieber lässt sich in alle nötigen Richtungen verändern oder verschieben. Auch zeigt dieses Programm durch die Möglichkeit verschiedene Arten von Variablen, wie Punkte und Geraden, zu definieren, eine erhöhte Flexibilität, da auf diese Variablen in späteren Abschnitten des Prüfprogramms zugegriffen werden kann. Die größte Flexibilität wird bei der sogenannten Professional Edition erreicht, in der das Programm im offengelegten Quellcode den eigen Wünschen angepasst oder durch eigene Module erweitert werden kann. Dadurch lassen sich für reguläre Aufgaben schnell Prüfprogramme ohne großen Programmieraufwand erstellen. Sollte für eine Applikation ein spezielles nicht vorhandenes Modul benötigt werden, kann es jedoch vom Anwender hinzuprogrammiert oder -gekauft und eingebunden werden, ohne den Rest des Programms selbst erstellen zu müssen. Durch die erhöhte Flexibilität ist an einigen Stellen die Übersichtlichkeit bzw. die einfache Bedienbarkeit vermindert, da nicht jeder Schritt selbsterklärend und sofort zu verstehen ist. Auch ist an einigen Stellen nicht ersichtlich, wie man zwischen den Betriebsmodi wechselt. Dieses Programm ist außerdem in einer Version lieferbar, die es ermöglicht, einen handelsüblichen Scanner als Bildquelle zu verwenden. Mit einem Scanner können plane Gegenstände, die auf die Scannerplatte gelegt werden, in sehr hoher Auflösung aufgenommen und somit auch sehr genau vermessen werden, wobei ein Scanner durch seinen äußerst niedrigen Preis das Projektbudget stark entlastet. Man kann noch genauere Ergebnisse erzielen, wenn man die bestehende Möglichkeit nutzt, variierende Abbildungsmaßstäbe des Scanners mit Hilfe einer Kalibrierplatte festzustellen und im aufgenommen Bild später zu korrigieren. Die Software eignet sich hervorragend für Anwender, die bereit sind für die größere Flexibilität eine aufwendigere Bedienung, die natürlich etwas Training benötigt, in Kauf zu nehmen. Speziell Anwender mit sehr guten Visual Basic Kenntnissen sollten die Professional Edition des SAC-Coake in Betracht ziehen, da die Möglichkeiten Prüfprogramme zu erstellen durch die Offenlegung des Quellcodes nahezu unbegrenzt sind, aber dennoch Applikationen von Anwendern ohne Programmierkenntnisse erstellt werden können. Abb. 4-11: Oberfläche des SAC-Coake / Werksbild der Firma SAC, Karlsruhe 60 5 Anlagenhersteller In vielen Fällen ist es nicht sinnvoll, eine Applikation mit zugekauften Komponenten selbst zu erstellen. Viele Aufgabenstellungen sind auch für die modernen standardisierten Bildverarbeitungslösungen zu komplex. Dies würde eine vollständige Neuentwicklung nötig machen, die oft viel zu teuer ist. Auch ist nicht immer das nötige Fachwissen für ein solches Projekt vorhanden. Dann ist es günstiger, mit einem Anlagenhersteller zusammenzuarbeiten. Viele Hersteller haben sich auf bestimmte Anwendungen spezialisiert und besitzen dadurch bereits große Erfahrung bei der Durchführung von Projekten in diesen Bereichen. Es existieren auch meistens schon laufende Anlagen oder Produkte, die den Anforderungen des neuen Projektes angepasst werden können. Dies spart einen Großteil der sonst nötigen Entwicklungskosten. Ist keine Lösung vorhanden und daher eine Neuentwicklung notwendig, ist die Zusammenarbeit mit einem solchen Hersteller ebenfalls sinnvoll, da die Erfahrung und das Fachwissen in diesen Firmen ein enormes Einsparpotenzial bei den Entwicklungskosten mit sich bringt. Im Rahmen dieser Arbeit wurde Kontakt zu zwei großen Bildverarbeiterfirmen aufgenommen, die in der Nähe des Standortes der Firma Schott Glas ansässig sind. Die Firma ISRA aus Darmstadt stellt sehr leistungsfähige Systeme für die Oberflächeninspektion, speziell auch für Gläser her. Daher ist sie für die Firma Schott Glas als Spezialglashersteller durch ihre Erfahrung und räumliche Nähe ein sehr interessanter Partner. Auch die Systeme für das Robot Vision zeichnen sich durch hohe Flexibilität und Prozesssicherheit aus. Kontakt wurde ebenfalls mit der Firma Vitronic aus Wiesbaden, einer der größten Bildverarbeiterfirmen Deutschlands, aufgenommen. Neben ihren Standardprodukten bietet Vitronic die Entwicklung von Spezialanwendungen an. Die Firma beschränkt sich in der Regel auf sehr komplexe und schwierige Problemstellungen. Sie zeichnet sich durch ein hervorragendes Fachwissen in allen Bereichen der Bildverarbeitung aus. Beide Firmen bieten fast ausschließlich Anwendungen für den High-End-Bereich an. Weitere kontaktierte Firmen sind im beigefügten Firmenverzeichnis erwähnt. 61 6 Durchführung von Projekten Die bis jetzt theoretisch vorgestellten Komponenten werden in der Praxis für die jeweils durchzuführenden Projekte ausgewählt und zusammengestellt. 6.1 Lastenheft Am Anfang eines jeden Projektes steht die genaue Definition der Aufgabenstellung. Es muss genau festgelegt werden, welche Eigenschaften eines Objektes untersucht werden sollen und welche Kriterien das Objekt erfüllen muss. Die gewünschte Genauigkeit der Auswertung sowie die Zeitabläufe bei der Produktion wie z. B. Taktzeiten müssen ermittelt werden. Aus diesen Daten muss ein Lastenheft erstellt werden, das neben den für die Beschaffung von Anlagen üblichen Punkten weitere Bedingungen umfasst. Der spätere genaue Inhalt wird meist in Zusammenarbeit mit dem Lieferanten angepasst, da die Realisierung der Aufgabe sich erheblich vom ersten Ansatz unterscheiden kann. Mögliche Inhalte sind: - Beschreibung des Prüfteils - Bildfeldgöße - Gesamtgröße des Prüfteils - Produktspektrum - Größe des zu untersuchenden Ausschnitts - Material - Transmission - Reflexion - Farbe - Temperatur - Oberflächenbeschaffenheit - Textur - Bedruckung - Verschmutzung der Oberfläche - Bewegung (gleichförmig, ungleichförmig, Schwingungen) - Position im Bildfeld (konstant, nicht konstant) - Definition der Aufgabe - zu erkennende Merkmale - Genauigkeit - Art der Auswertung - Umgang mit Messwerten - variierende Toleranzen - Fehlerkatalog - Umgebungsbedingungen - Taktzeiten - Zeit zum Einrichten neuer Produkte - Hintergrund des Prüfteils - Fördersystem - Raumtemperatur 62 - Fremdlicht Schmutz Feuchtigkeit zu Verfügung stehender Platz (Kamera, Beleuchtung, Auswerteeinheit, Bildschirm) Arbeitsabstand Abstand zwischen Komponenten (Auswertung, Bildschirm, Kamera, Beleuchtung) - Bedienoberfläche - Passwortschutz der Oberfläche - Eingabe von neuen Toleranzen - Einlernen von neuen Objekten (Musterteile, CAD-Zeichnungen, ...) - Anpassung des Programms - Abspeichern von Bildern - Visualisierung - Anlagenanbindung - kontinuierliche Prüfung oder externes Startsignal - Schnittstellen - Kommunikation - Statistiken - Fernwartung - Systemarchitektur - Hardwareaufbau - Betriebsystem - stand alone oder vernetzt - Dokumentation - Schaltpläne - Konstruktionspläne - Handbücher - Musterbilder - Quellcode der Software (gegebenenfalls bei Notar hinterlegen) - Wartungsplan 6.2 Kontaktaufnahme Um einen Lieferanten auszuwählen, muss man Kontakt mit möglichen Anbietern aufnehmen. Dazu eignen sich vor allem Messen. Dort kann das Produktspektrum des Lieferanten begutachtet und die Applikation vor Ort mit den Firmen durchgesprochen werden. Ist der Besuch einer Messe nicht möglich, muss der Kontakt mit Lieferanten auf andern Wegen hergestellt werden. Eine gute Adressenquelle ist die Fachabteilung „Industrielle Bildverarbeitung/ Machine Vision“ im Verband Deutscher Maschinen- und Anlagenbau e.V. (VDMA). Viele Firmen im Bereich der Bildverarbeitung sind Mitglied dieses Verbandes. Sie sind in seiner Jahresbroschüre [VDMA00] mit Adresse und Firmenbeschreibung erwähnt. Dort können sie anhand ihrer Referenzen und Kernkompetenzen ausgewählt werden. Das Internet ist ebenfalls eine hervorragende Informationsquelle für mögliche Lieferanten. Da allein in Deutschland mehr als 100 63 Bildverarbeiterfirmen am Markt sind, muss bereits bei der Kontaktaufnahme eine Vorauswahl stattfinden. Einige Firmen haben sich auf besondere Anwendungen spezialisiert. Diese Firmen können bereits große Erfahrung im gesuchten Bereich haben. Oder sie haben sogar Standardlösungen im Angebot, die sich leicht an die Anforderungen anpassen lassen. Dadurch verringert sich der Planungs- bzw. Entwicklungsaufwand erheblich. Bereits vor der Kontaktaufnahme sollte feststehen, ob die Anlage von einem Systemlieferanten bezogen werden soll oder ob man mit zugekauften Komponenten die Anlage selbst entwickelt und in Betrieb nimmt. Aspekte bei der Auswahl können sein: 6.3 Produkte (Standardlösung vorhanden) Größe des Unternehmens (Gewährleistung auch in Zukunft) Erfahrungen (Ähnliche Anlage bereits geliefert) Referenzen Kapazität Persönliche Aspekte Regionale Lage (kurze Wege und somit schnelle Reaktion und Support) Alternative Technologien Neben der Bildverarbeitung werden für einige Anwendungen alternative Technologien angeboten, deren Einsatz auch zu überprüfen ist. Diese Technologien können in einigen Fällen erhebliche Vorteile bringen. Ein Beispiel für solche Technologien ist der Einsatz von Laserscannern. Der Aufbau ähnelt dem einer Zeilenkamera. Ein in eine Richtung oszillierender Laserpunkt rastert die Oberfläche des Objektes ab. Auch hier kann in Reflexion oder Transmission gemessen werden. Der Vergleich des reflektierten oder transmittierten Lasersignals mit einem Sollsignal lässt Rückschlüsse auf mögliche Abweichungen der Eigenschaften des Objektes zu. Durch solche Systeme werden z. B. optische Fehler in Flachglas erkannt. Die Möglichkeit Fehler zu unterscheiden und zu klassifizieren sind allerdings bei solchen Systemen gegenüber der Bildverarbeitung begrenzt. 6.4 Bemusterung Nach der ersten Kontaktaufnahme muss der Lieferant bemustert werden. D. h. ihm müssen für eine Voruntersuchung, bei der er ein Anlagenkonzept erarbeitet, aussagekräftige Musterteile zu Verfügung gestellt werden. Die relevanten Eigenschaften der Teile müssen den Eigenschaften der späteren Prüfteile entsprechen. Dabei handelt es sich nicht nur um die Eigenschaften, die später überprüft werden, sondern auch um Eigenschaften, die ihrerseits die Prüfung beeinflussen. Hier gemachte Fehler können später große Schwierigkeiten hervorrufen. Kann für die Voruntersuchung nur ein Prototyp zur Verfügung gestellt werden, muss sichergestellt sein, dass das spätere Produkt die gleichen Bilder erzeugt. Hat der Prototyp z. B. durch andere Prozessparameter eine vom Produkt abweichende Oberfläche, kann dies einen völlig anderen Aufbau der Beleuchtungen notwendig machen. 64 6.5 Angebotsprüfung Nach der Voruntersuchung geben die Hersteller ein Angebot über Komponenten oder Komplettsysteme ab. Neben dem Angebotsvergleich zwischen den Anbietern ist eine genaue Überprüfung aller Angebote nötig. Es ist sicherzustellen, dass die Auswertung der Merkmale und die Prozessanbindung genau den eigenen Wünschen entsprechen. Der Softwareanteil an solchen Anlagen ist sehr hoch und gerade in diesem Bereich sind Verwechselungen schnell möglich. Daher bedarf es hier einer genauen Kontrolle. 6.6 Lieferantenauswahl Nach dem Vergleich der Angebote wird ein Lieferant ausgewählt. Die Aspekte sind die gleichen wie bei der Kontaktaufnahme. Hinzu kommen Aspekte, die die Anlage betreffen: - Leistungsfähigkeit Genauigkeit Kosten/Nutzen Schulungsaufwand Prozesssicherheit 65 7 Beispielprojekte Im Rahmen dieser Arbeit wurden eine Reihe von Projekten im Bereich der Bildverarbeitung durchgeführt. Einige dieser Projekte unterliegen der Geheimhaltung, da es sich um neue Produkte oder Produktionsverfahren handelt. Sie dürfen daher nur ohne Details oder gar nicht veröffentlicht werden. Als Beispiele werden drei Projekte vorgestellt. 7.1 Winkelmessung Lichtleiterstab Ein Produkt der Firma Schott sind faseroptische Lichtleiterstäbe (FST). Diese werden z. B. in die Handstücke von Bohrern aus der Zahnmedizin eingesetzt, um Licht innerhalb des Handstückes an den Bohrerkopf zu leiten. Dem Kunden werden Spezifikationen wie z. B. Maßhaltigkeit dieser FST zugesichert. Während der Produktion werden die Stäbe gebogen und zugesägt. Der Winkel==α dieses Biegevorgangs ist durch die Alterung der verwendeten Biegeformen und Prozessschwankungen fehlerbehaftet. Bisher konnte nur manuell an wenigen Stichproben der Winkel überprüft werden. Infolge der gestiegenen Anforderungen will man aber eine 100%-Kontrolle aller FST einführen. Sie muss schneller und ebenso genau wie die bisherige optische Vermessung mittels eines telezentrischen Projektors sein. Diese telezentrischen Projektoren bilden den Schatten des FST auf eine Mattscheibe ab. Der Schatten kann durch einen x-y-Tisch auf der Scheibe verschoben werden. An der Mattscheibe befindet sich ein Sensor, der einen Helldunkelübergang zusammen mit den Koordinaten des Tisches ermitteln kann. So werden pro Schenkel des Winkels drei Koordinaten der Kante ermittelt und mittels linearer Regression eine Geradengleichung errechnet. Zwischen diesen Geraden wird der Winkel berechnet und ausgegeben. Dieser Methode ist sehr umständlich und langsam. Abb. 7-1: Zeichnung des fertigen Stabes α Abb. 7-2: Bild des Stabes während der Produktion 66 Folgende Anforderungen wurden formuliert: Der Winkel α soll mit einer Genauigkeit von mindestens 0,05° gemessen werden. Der FST wird manuell ins Bildfeld des Systems gelegt und die Auswertung ebenfalls manuell gestartet. Der Messwert soll auf einem Bildschirm ausgegeben werden. Eine Kommunikation mit weiteren Geräten ist nicht notwendig. Der FST ist zu diesem Zeitpunkt erkaltet. Die Produktionsumgebung ist sehr sauber. Sie entspricht Laborbedingungen. Die Auswertungszeit kann bis zu 10 Sekunden betragen. Messgröße: Sollwert: Genauigkeit: Fördertechnik: Zeitanforderung: Umgebung: Kommunikation: Winkel α 21° ∆α<0,05° manuell t<10 sec. Laborbedingungen keine Die Erstellung eines ausführlichen Lastenheftes war durch die geringen Anforderungen nicht notwendig. Da in der Abteilung das nötige Fachwissen vorhanden war, wurde entschieden, eine Lösung durch zugekaufte Komponenten selbst zu realisieren. Kontaktiert und bemustert wurden die Firmen FiberVision, Cognex, DS-GmbH und Stemmer. Sie wurden gebeten, eine Voruntersuchung durchzuführen. Aus den Ergebnissen sollte ein Angebot über die nötigen Komponenten erstellt werden. Folgende Komponenten wurden angeboten: FiberVision: - Pictor M1004 inkl. VC11-Kamera 740 x 580 Pixel - telezentrisches Objektiv inkl. Tageslichtfilter - IR-Flächenlicht als Durchlicht (96 mm x 46 mm) - VCWin 1.6 - Anschlußmaterial Cognex: - InSight 2000 - telezentrisches Objektiv - Flächenlicht DS-GmbH: - DS-SG PCI-Karte zur Bilddatenübertragung, pixeltaktkompatibel, asynchron - Asynchron CCD-Kamera 782 x 582 Pixel - verzeichnungsarmes Präzisions-Objektiv - NeuroCheck 5.0 Stemmer: Die Firma Stemmer machte kein Angebot, da ihrer Auffassung nach die Voruntersuchung gezeigt habe, dass diese Genauigkeit mit üblichen Auflösungen (1024 x 1024) nicht zu erreichen wäre. 67 Die Angebote unterschieden sich nicht nur im Preis erheblich (12.000 DM bis 22.000 DM), sondern auch in den verwendeten Komponenten. Unterschiede waren in der Verwendung von Tageslichtfiltern, telezentrischen Optiken und den Kameras festzustellen. Das Argument der Firma DS-GmbH für ihr angebotenes Objektiv war die geringe Tiefe (3,3 mm) des Objektes und der feste Arbeitsabstand. Die Abbildungseigenschaften der Optik seien für diese Aufgabenstellung ausreichend. Für die Verwendung eines Tageslichtfilters in Verbindung mit einem IR-Licht sprach nach Aussagen der Firma FiberVision die Verhinderung von störenden Reflexionen an der Oberfläche des FST. Ein Telefonat mit der Firma Stemmer ergab, dass die Genauigkeit der Kantenantastung durch die Auflösung im geforderten Bereich liegt. Um die geforderte Genauigkeit zu erreichen, sei die Verwendung einer Zeilenkamera notwendig. Sie müsse in Verbindung mit einem Schrittmotor o. Ä. das Objekt mit einer sehr hohen Auflösung abtasten. Die Aussagen bezüglich der erforderlichen Auflösung widersprachen sich. Daher war es notwendig, eine Fehlerabschätzung durchzufuhren. Als Kameraauflösung wurden 1000 x 1000 Pixel angenommen. Der Faserstab hat eine Ausdehnung von ca. 80 mm. Sie muss durch das Bild erfasst werden. Daraus ergibt sich ein Bildfeld von 80 mm x 80 mm. Aus der Bildfeldgröße und der Auflösung erhält man eine Pixeldimension von 80 µm. Die Pixelkoordinaten und somit auch die angetasteten Punkte der Kante können also nur in diesen Schritten angegeben werden. Zwischenwerte sind nur durch Subpixelroutinen möglich. Sie sollen in diesem Fall vernachlässigt werden, da sie bei der Kantenantastung nur eine Abschätzung darstellen. 1000 Pixel 1000 Pixel Abb. 7-3: angenommenes Bildfeld Eine Hälfte des Schenkels hat eine Länge von 40 mm. Unter der Annahme, dass zur Winkelbestimmung nur der äußerste Punkt als einzelner Stützpunkt angetastet wird, ergibt sich folgendes Dreieck, aus dem der Winkel bestimmt werden kann. Als ∆h wird die Pixeldimension von 0,08 mm angenommen, da die Kante zwischen zwei Pixeln springen kann. Um die Abweichung des Winkels zu bestimmen, muss der zweite Winkel mit dem vergrößerten Schenkel berechnet und vom Sollwert abgezogen werden. Der errechnete Fehler gilt für beide Schenkel und geht somit doppelt in den Gesamtfehler ein. α1 = 10,5° l ≈ 40mm h1 = tan (10,5°) ⋅ 40mm = 7,4136mm ∆h = 0,08mm æ h + ∆h ö α '1 = tan −1 ç 1 = 10,61° è 40mm ∆α1 ≈ 0,1° ∆α ges. ≈ 0,2° ∆h h1 α‘1 α1 l Abb. 7-4: entstehendes Dreieck 68 Die Winkelbestimmung zieht jedoch nicht nur einen Punkt als Grundlage zur Winkelbestimmung heran, sondern es werden viele Punkte angetastet. Die Stützpunkte werden mittels linearer Regression durch eine Ausgleichsgerade angenähert, deren Winkel bestimmt wird. Der mögliche Fehler ist schwer zu berechnen. Daher wird er im Tabellenkalkulationsprogramm Excel abgeschätzt. Wie beschrieben ist die Pixeldimension 8 µm. Es können also nur ganze Vielfache dieses Wertes als Koordinaten vorkommen. Die dafür notwendige Rundung wird durch eine kleines Makro in VBA (Visual Basic for Applications) ausgeführt. Die entstehenden Koordinaten werden in ein Diagramm eingetragen. Durch Einfügen einer linearen Trendlinie erhält man die Geradengleichung der linearen Regression und kann aus den beiden ermittelten Steigungen den Winkel zwischen den Geraden berechnen. Es kommt zu Abweichungen zwischen theoretischem und ermittelten Wert. Diese Berechnung wurde für 40 und für 400 Stützpunkte bei verschiedenen Winkeln der ersten Gerade durchgeführt. Winkel2 Winkel1 x-Achse Abb. 7-5: Geradenabschnitte des FST Geradengleichung: y = m⋅ x +b m1 = tan −1 (winkel1) m2 = tan −1 (winkel1 − 21) α Re gerssion = tan −1 (m1 ) − tan −1 (m2 ) Quellcode des Makros: Private Sub CommandButton1_Click() aktivetabelle = ActiveSheet.Name pixelanzahl = 400 ' maximale Pixelanzahl pro Geradenabschnitt stützpanzahl = 40 ' Anzahl der Stützpunkte für die lineare Regression winkelgerade1 = 10 ' Winkel der ersten Gerade zur x-Achse Pi = 3.141592654 m1 = Tan(winkelgerade1 * Pi / 180) ' Berechnung der Steigung Gerade 1 m2 = Tan((winkelgerade1 - 21) * Pi / 180) ' Berechnung der Steigung Gerade 2 For i = 1 To stützpanzahl ' x-Koordinate des Pixels Worksheets(aktivetabelle).Cells(i, 5) = 0.08 * i * pixelanzahl/stützpanzahl ' genaue y-Koordinate der Kante an Stelle x Worksheets(aktivetabelle).Cells(i, 6) = 0.08 * i * m1 * pixelanzahl/stützpanzahl ' gerundete y-Koordinate der Kante an Stelle x Worksheets(aktivetabelle).Cells(i, 7) = 0.08 * Val(i * m1 * pixelanzahl/stützpanzahl ' genaue y-Koordinate der Kante an Stelle x Worksheets(aktivetabelle).Cells(i, 8) = 6 + 0.08 * i * m2 * pixelanzahl/stützpanzahl ' gerundete y-Koordinate der Kante an Stelle x Worksheets(aktivetabelle).Cells(i, 9)=0.08*Val(6/0.08+i*m2*pixelanzahl/stützpanzahl) Next i End Sub 69 Lineare Regression mit 40 Stützpunkten pro Gerade 7 6 5 Winkel zwischen den Geraden: 20,978° y / mm 4 y = 0,176360x - 0,040308 R2 = 0,999805 y = -0,194690x + 5,968923 R2 = 0,999833 3 2 Gerade1 Gerade2 1 Linear (Gerade1) Linear (Gerade2) 0 0 5 10 15 20 25 30 35 -1 x / mm Abb. 7-6 entstandenes Diagramm Tabelle 2: Abschätzung der Fehler durch die begrenzte Auflösung, 40 Stützpunkte Winkel1 20 15 10 5 0 m1Regression 0,363959 0,267974 0,176360 0,087664 0,000000 40 Stützpunkte m2Regeression αRegression -0,017083 20,978 -0,104109 20,945 -0,194690 21,019 -0,286745 21,010 -0,383762 20,995 Abweichung -0,022 -0,055 0,019 0,010 -0,005 Tabelle 3: Abschätzung der Fehler durch die begrenzte Auflösung, 400 Stützpunkte Winkel1 20 15 10 5 0 m1Regression 0,363933 0,267933 0,176462 0,087423 0,000000 400 Stützpunkte m2Regeression αRegression -0,017121 20,979 -0,105099 20,999 -0,194442 21,011 -0,286671 20,992 -0,383891 21,001 Abweichung -0,021 -0,001 0,011 -0,008 0,001 Die Abschätzung zeigte, dass die geforderte Genauigkeit bei ausreichender Stützpunktanzahl erreicht werden kann. Die Werte gehen von idealen Bedingungen aus, d. h. es wird angenommen, dass keine Abbildungsfehler vorhanden sind und die Kante genau gefunden wird. Durch Abbildungsfehler ist ein größerer Fehler nicht auszuschließen. Überlegungen, eine hohe Auflösung durch die Verwendung einer bewegten Zeilenkamera erreichen zu können, führten zur Idee, diesen Aufbau durch einen handelsüblichen Scanner zu realisieren. Der FST hat, wie beschrieben, eine geringe Tiefe und kann auf die Glasplatte eines Scanners gelegt werden. Dessen zeilenförmiger 70 CCD-Chip, der durch einen Schrittmotor bewegt wird, erlaubt extrem hohe Auflösungen. Zu Testzwecken wurden Bilder eines FST mit einem Scanner aufgenommen und durch die Software NeuroCheck ausgewertet. Die Bilder zeigten eine scharfe Abbildung der Kante mit sehr gutem Kontrast. Ein Vergleich zwischen alter Methode und den Testbildern ergab eine Abweichung von 0,2°. Auch wurde eine Abweichung zwischen den Auswertungen unterschiedlicher Bilder des gleichen FST festgestellt. Dies konnte durch die sowohl in xals auch in y-Richtung unkonstanten Abbildungsmaßstäbe erklärt werden. Daraus ließ sich folgern, dass die Werte von der Lage des FST auf dem Scanner abhängig sind. Um also einen handelsüblichen Scanner verwenden zu können, waren weitere Anpassungen notwendig. Abb. 7-7: Originalbild Abb. 7-8: Bild mit Verzeichnung Durch Messung eines Stabes mit bekanntem Winkel kann ein Umrechnungsfaktor ermittelt werden. Die ermittelten Winkel werden also mit bekannten Winkeln kalibriert. Die Abweichung zwischen den einzelnen Messwerten dürfen die geforderte Genauigkeit nicht überschreiten. Um die Reproduzierbarkeit ermitteln zu können, war eine statistische Untersuchung mit einer hohen Stichprobenanzahl nötig. Dazu wurde die Messung provisorisch automatisiert. Im Internet wurde ein Tool zum Bildeinzug nach TWAIN-Standard gefunden. Dieser Standard definiert eine Softwareschnittestelle, um Bildquellen anzusprechen. Das Tool DaVinci Pro der Firma Herd Software Entwicklung aus Bürstadt kann als ActiveX- Steuerelement in eine eigene Anwendung implementiert werden. Es wurde ein Programm in Visual Basic erstellt, welches den Scanvorgang auslöst und das aufgenommene Bild in einer Datei unter einem festen Pfad auf der Festplatte ablegt. In NeuroCheck wurde ein Prüfprogramm erstellt, das auf diesen Pfad zugreift und das dort abgelegte Bild auswertet. Das Prüfprogramm wird durch die Visual Basic Anwendung gestartet und die in einer Matrix abgelegten Ergebnisse werden ausgelesen und auf dem Bildschirm dargestellt. Programmcode: ‘ Deklaration Option Explicit Dim NeuroCheck As Object Dim CheckRoutine As Object Dim SingleCheck As Object Dim CheckFunction As Object Private Sub Command3_Click() ‘ Reset des Textfeldes TxtWinkel.Text = "" ‘ Aktivierung des Scanvorgang Call DavCtl1.TWAINAquire(True, 0) ‘ Abspeichern des Bildes DavCtl1.SaveToFile ("d:\lichtleiterstab\mess_stab_2.bmp") 71 ‘ Starten von NeuroCheck NeuroCheck.open ("d:\lichtleiterstab\lichtleiterstab_winkel_anschlag.Chr ") Set CheckRoutine = NeuroCheck.ActiveCheckRoutine NeuroCheck.OperatingMode = 3 CheckRoutine.Visible = True NeuroCheck.execute ‘ Schleife zum Auslesen der Ergebnismatrix For Each SingleCheck In CheckRoutine For Each CheckFunction In SingleCheck If CheckFunction.functionid = 527 Then TxtWinkel = Round(CheckFunction.getresultitem(0, 1), 3) & "°" Next CheckFunction Next SingleCheck End Sub Private Sub Form_Load() ‘ Objektzuweisung Set NeuroCheck = CreateObject("NeuroCheck.Application") End Sub Private Sub Form_Unload(Cancel As Integer) ‘ Schließung NeuroCheck NeuroCheck.quit End Sub Abb. 7-9: durch TWAIN Schnittstelle geöffnetes Scannerprogramm Abb. 7-10: gescanntes Bild und ermittelter Winkel Abb. 7-11: In NeuroCheck erstelltes Prüfprogramm 72 Dieses Programm erlaubte es, eine statistische Untersuchung mit vertretbarem Aufwand durchzuführen. In einer ersten Messreihe wurde der Stab nach jeder Messung ohne feste Positionierung neu auf den Scanner gelegt und die Bilderfassung und Auswertung gestartet. So konnte der Einfluss der Positionierung auf den Scanner ermittelt werden. In einer zweiten Messreihe wurde zur Positionierung ein provisorischer Anschlag aus Pappe auf der Scannerplatte befestigt. Pro Messreihe wurden jeweils 100 Messwerte aufgenommen. Tabelle 4: Messwerte der Winkel ohne Anschlag 21,019 21,002 21,000 21,004 21,022 21,016 21,027 21,028 21,016 21,018 21,025 21,015 21,012 21,020 21,009 21,016 21,042 21,033 21,047 21,012 21,005 21,005 21,005 21,004 21,007 21,019 21,020 21,004 21,008 21,022 Winkel ohne Anschlag 21,032 21,042 20,997 21,025 21,005 21,031 21,044 21,036 21,035 21,004 21,034 21,039 21,025 21,003 21,050 21,049 21,019 21,053 21,030 21,028 21,019 21,039 21,018 21,022 21,027 21,054 21,023 21,035 21,035 21,028 21,017 21,025 21,016 21,024 21,021 21,020 21,017 21,045 21,034 21,029 21,022 21,006 21,001 20,997 20,998 21,047 21,042 21,050 21,047 21,047 21,056 21,033 21,032 21,037 21,033 21,029 21,014 21,000 21,040 21,029 21,051 21,047 21,044 21,039 21,013 21,014 21,024 21,015 21,019 21,021 21,022 21,006 21,001 20,997 20,998 21,047 21,042 21,050 21,047 21,047 21,056 21,033 21,032 21,037 21,033 21,029 21,014 21,000 21,040 21,029 21,051 21,047 21,044 21,039 21,013 21,014 21,024 21,015 21,019 21,021 Tabelle 5: Messwerte der Winkel mit Anschlag 21,019 21,002 21,000 21,004 21,022 21,016 21,027 21,028 21,016 21,018 21,025 21,015 21,012 21,020 21,009 21,016 21,042 21,033 21,047 21,012 21,005 21,005 21,005 21,004 21,007 21,019 21,020 21,004 21,008 21,022 Winkel mit Anschlag 21,032 21,042 20,997 21,025 21,005 21,031 21,044 21,036 21,035 21,004 21,034 21,039 21,025 21,003 21,050 21,049 21,019 21,053 21,030 21,028 21,019 21,039 21,018 21,022 21,027 21,054 21,023 21,035 21,035 21,028 21,017 21,025 21,016 21,024 21,021 21,020 21,017 21,045 21,034 21,029 Um eine Aussage über die Reproduzierbarkeit zu machen wurden die Messreihen statistisch ausgewertet: Tabelle 6: Statistische Auswertung der Winkel ohne Anschlag mit Anschlag 21,109 21,056 αmax. 21,021 21,025 αmittel 20,958 20,997 αmin 0,088 0,031 αmax−αmittel 0,063 0,028 αmax−αmittel Standardabweichung 0,026 0,015 Anzahl 100 100 73 Es zeigte sich einerseits, dass bei Verwendung dieses Scanners ein Anschlag nötig ist, um die geforderte Genauigkeit zu erreichen. Ohne Anschlag sind die beobachteten maximalen Abweichungen zu groß. Die vorgenommene Untersuchung zeigte aber auch, dass der Scanner als Bildquelle geeignet ist. Die Entscheidung, übliche Komponenten der Bildverarbeitung durch ihn zu ersetzen, konnte schnell getroffen werden. Am zugehörigen Arbeitsplatz in der Produktion ist bereits ein PC vorhanden. Auf diesem Rechner befindet sich eine Qualitätsdatenbank, in die Produktionsdaten eingegeben werden. Er kann ebenfalls für diese Anwendung mitverwendet werden. Durch diesen Zusammenhang muss als Hardware nur ein handelsüblicher leistungsfähiger Scanner (ca. 800 DM) angeschafft werden. Für die Software würde die Anschaffung eines einzelnen Bildverarbeitungstools zur Kantenantastung genügen. Die Kosten für dieses Tool liegen bei wenigen hundert Mark (Edge Tool von Common Vision Blox). Zusammen mit dem Grundmodul des Common Vision Blox entstehen Softwarekosten von ca. 1000 DM. Die Gesamtkosten liegen somit unter 2000 DM. Da man aber diesen Aufbau auch für Produkte mit anderen Formen verwenden wollte, entschoss man sich, eine Bildverarbeitungssoftware zum schnellen Erstellen solcher Lösungen anzuschaffen. Die Entscheidung fiel zunächst zugunsten NeuroCheck, da es für diese Art von Anwendungen konzipiert ist. Vor der Bestellung wurde auf einer Messe (allerdings erst kurz vor Beendigung dieser Arbeit) der Kontakt zur Firma SAC aus Karlsruhe aufgenommen. Eines ihrer Produkte ist der bereits beschriebene Bildverarbeitungsinterpreter SAC-Coake. Diese Software kann mit einer TWAIN-Schnittstelle erweitert werden. Das Programm ist eine Visual Basic Anwendung. Als Professional Version mit offengelegtem SourceCode war es für die Ingenieure im vorgesehenen Einsatzbereich ideal, da sie sehr gute Visual Basic Programmierkenntnissen besitzen. So können sowohl schnelle und daher günstige Lösungen erstellt, als auch für spezielle Anwendungen alle gewünschten Anpassungen vor Ort vorgenommen werden. Daher eignete sich diese Software für den gewünschten Einsatz an dieser Stelle besser als das Produkt NeuroCheck. Bei Gesprächen mit der Firma stellte sich heraus, dass durch ein weiteres Modul die Abbildungsfehler des Scanners erfasst und in der Software korrigiert werden können. Dies wird durch das Einscannen einer hochgenauen Kalibrierplatte ermöglicht. Die Verzerrung des regelmässigen Musters auf der Platte wird während einer Kalibiermessung für jeden Bildpunkt erfasst und in allen späteren Bildern durch die Software korrigiert. Eine solche Platte war während der Erstellungszeit dieser Arbeit für Testzwecke noch nicht lieferbar. Nach der bereits vorgenommen Inbetriebnahme des bestellten Scanners und dem Test mit dem Produkt der Firma SAC sind weitere Arbeiten notwendig, die aus zeitlichen Gründen erst nach Fertigstellung der Arbeit stattfinden können. Wenn die Kalibrierplatte eingetroffen ist, muss das Kalibriermodul der Software getestet werden. Nach der Kalibrierung muss ein erneuter Vergleich zwischen der alten und der neuen Messmethode stattfinden, um die Notwendigkeit einer Umrechnung des Messwertes festzustellen. Eine Wiederholung der statistischen Untersuchung zur Sicherstellung der Reproduzierbarkeit ist der letzte Schritt vor der Realisierung in der Produktion und der Schulung des vorhandenen Personals. 74 7.2 Konturenprüfung Armaturengläser An einem Standort der Firma Schott Glas wurde eine Produktionsanlage für Armaturengläser aufgebaut. Bei diesen Gläsern handelt es ich um kleine Glasscheiben mit unterschiedlichen Formen, die mit einer Antireflex-Schicht versehen sind. Die Glasprodukte werden für Zulieferer der Automobilindustrie hergestellt. Dort werden sie als Sichtscheiben für Autoarmaturen verwendet. Dem Kunden wird die Maßhaltigkeit der Kontur zugesichert. So soll sichergestellt werden, dass die Gläser in die vorgesehenen Fassungen passen. In der Herstellung werden die Formen in große Flachglasscheiben geritzt. Die Gläser werden in weiteren Schritten vereinzelt und die Brechkanten geschliffen. Die geschliffenen Gläser werden vor dem Verpacken manuell auf Kratzer und Ausmuschelungen überprüft. Die Maßhaltigkeit wird ebenfalls manuell stichprobenartig überprüft. In die Produktionskette sollte eine Anlage zur automatischen Konturvermessung implementiert werden. Folgende wichtigen Anforderungen wurden formuliert und im Lastenheft zusammengefasst: Produkteigenschaften: Bruttomaß: diverse Geometrien bis D = 250 mm Glasdicke: 2,0mm +/-0,2mm Transmission: > 90% Reflexion: 0,3% (bis zu 15% bei Fehlern) Material: Klarglas Eigentemperatur: < 40°C Oberfläche: sauber Rand: geschliffene Kanten Produktvielfalt: 20 Varianten Messaufgabe: - Überprüfung der Gläser auf Maßhaltigkeit und Formabweichungen - Genauigkeit: - +/− 0,1mm Einlernen: - CAD-Zeichnungen oder Referenzteil - Muster müssen im System hinterlegbar sein - Umrüstzeit < 5min Produktionsbedingungen: - Eintypenfahrweise - Rollenförderer als Transportsystem - 600 Teile pro Stunde - Fremdlicht Anlagenaufbau: - eventuell nötiges Handlingsystem - Messsystem - Visualisierung 75 Prozeßschritte: - Handling im Messsystem - Vermessung der Gläser - Qualitätsentscheid - Ausschleusung - Messwerte an übergeordnetes System senden - Visualisierung Da diese Aufgabe sehr komplex ist, fiel die Entscheidung, mit einem Systemlieferanten zusammenzuarbeiten. Die Firma ISRA hat bestehende Produkte für die Oberflächeninspektion von Gläsern im Angebot und bereits mehrere Anlagen an Schott geliefert. Da diese Systeme Glasfehler erkennen können, wurde die Messaufgabe um diese Prüfung erweitert. Es erfolgte die Kontaktaufnahme und anschließend die Übergabe des Lastenheftes und der Musterteile. Die Firma ISRA legte nach einer Voruntersuchung ein Angebot für eine Lösung vor. Formulierte Messaufgabe: - Maßhaltigkeit der Gläser auf 0,1 mm bestimmen - Blasen und Kratzer ohne Berücksichtigung der Glasseite erkennen - limitierbare zulässige Fehleranzahl - limitierbarer minimaler Fehlerabstand Anlagenkonzept: - Messung in Dunkelfeld und Transmission - telezentrische Optik - Zeilenkamera mit 4096 Pixeln - Scanrate konstant 5000 Hz In Gesprächen über das Angebot stellte sich heraus, dass es bei der Formulierung der Messaufgabe zu einem Missverständnis gekommen war. Sowohl im Lastenheft als auch im Angebot wurde von Maßhaltigkeit gesprochen. Die Firma Schott wollte überprüfen lassen, ob jeder einzelne Punkt der Kontur in einem Toleranzbereich um die Sollkontur liegt. Die Firma ISRA überprüfte die Maßhaltigkeit mit einer anderen Methode. Aus angetasteten Konturpunkten sollten Ausgleichsgeometrien errechnet und deren Maße untersucht werden. Damit wären aber nicht alle vorkommenden Fehler erfasst worden, wie man anhand der Abbildungen 7-11 bis 7-14 erkennen kann. Dies ist ein gutes Beispiel dafür, wie wichtig es ist, Aufgabenstellungen bis ins Detail genau zu definieren. Wird ein solcher Fehler nicht vorzeitig erkannt, kann dies zu erheblichen Kosten führen. Wäre die Bestellung dieser Anlage ausgelöst worden, hätte die Firma ISRA eine Anlage genau nach ihrem eigenem Angebot geliefert. Die Firma Schott hätte eine Anlage erhalten, die die gewünschte Aufgabe nicht erfüllt. 76 Abb. 7-11: Musterteil Abb. 7-12: Fehlerteil Außerhalb des Toleranzbereiches liegende Konturpunkte Toleranzband gefundene Kontur Abb. 7-13: gewünschte Auswertung mit gefundenen Konturabweichungen Errechneter Ausgleichskreis Abb. 7-14: angebotene Auswertung mit korrektem Durchmesser der Ausgleichsgeometrie In weiteren Gesprächen wurden zusätzlich weitere Parameter wie Standort der Anlage, Schnittstellen, Umgebungsbedingungen usw. abgeklärt. So wurde die Anlage durch einen Inkrementalgeber erweitert. Er löst die Aufnahme einer Zeile in Abhängigkeit von der Bandgeschwindigkeit aus. Dadurch können mögliche Schwankungen in der Bandgeschwindigkeit kompensiert werden. Sie würden zu einer Verzerrung des aus Zeilen zusammengesetzten Bildes führen. Des weiteren wurde die Software durch die gewünschte Konturenvermessung erweitert. Auch dieses Projekt konnte bis zum Abschluss der Diplomarbeit noch nicht abgeschlossen werden. Eine Realisierung ist jedoch weiterhin geplant. 7.3 Automatische Fehlererkennung an ungeschliffenen Fernsehschirmen Im Hauptwerk der Firma Schott werden die Glasteile für die Produktion von Fernsehröhren hergestellt. Neben den sogenannten Trichtern werden auch in einem kontinuierlichen Vierschichtbetrieb im Laufe eines Jahres mehrere Millionen sogenannte Schirme hergestellt. Die Schirme werden aus einem heißen Glastropfen gepresst und in einen Kühlofen eingelegt. Nach einer langsamen Abkühlung werden die Schirme manuell auf mögliche Fehler untersucht, das sind z. B. Blasen, Einschlüsse, Verunreinigungen, Kratzer, Risse usw. 77 Nach der Fehlersuche am Kühlbandende werden die Rohschirme geschliffen und poliert, um geforderte optische Eigenschaften zu erreichen. Nach diesem Schritt werden die polierten Schirme nochmals manuell auf Fehler untersucht. Die fehlerhaften Schirme werden aussortiert. Sie werden entweder als Scherben wiederverwendet oder erneut geschliffen um geringe Oberflächenfehler auszubessern. Danach werden sie verpackt und zum Kunden verschickt. Im Rahmen dieser Arbeit sollte eine Machbarkeitsstudie zu einer automatischen Fehlererkennung am Kühlbandende erstellt werden. Folgende Arbeitspakete wurden formuliert: - Einarbeiten ins Thema Erstellung eines Fehlerkataloges Entwurfserstellung eines Lastenheftes Kostenrechnung zur Erkennung möglicher Einsparpotenziale Erstellung möglicher Materialflußkonzepte Lieferantensuche, Kontaktaufnahme, Begutachtung Vergleich möglicher Systeme Details und Ergebnisse unterliegen der strengen Geheimhaltung. Sie können daher hier nicht veröffentlicht werden. Aber eine kurze Zusammenfassung des Projektes kann dennoch gegeben werden. Nach dem Besuch der Produktionslinien und der Begutachtung jedes Produktionsschrittes galt es, die gemachten Beobachtungen und das erarbeitete Wissen über die Vorgehensweise der manuellen Prüfung in einen Fehlerkatalog zusammenzustellen. Er sollte als Grundlage des Lastenheftes dienen, um die Messaufgabe genau formulieren zu können. Manuelle Prüfer unterscheiden folgende Fehlerarten: - runde Blasen lange Blasen Steine Einschlüsse Schlieren Ölflecken (eingebrannte Rückstände des Formenschmiermittels) Schmutz (eingebrannte Schmutzpartikel) Risse Anschläge (Glasverletzungen durch Kontakt mit Handlingsystem) Kratzer fehlender Pin (eingeschmolzenes Bauteil für spätere Elektronik) Jeder Schirmtyp wird in unterschiedliche Zonen eingeteilt, in denen unterschiedliche Fehlerkriterien gelten. Für die unterschiedlichen Fehler gibt es unterschiedliche Kriterien, die zum Ausschuss führen können: - Vorhandensein Anzahl pro Zone Anzahl pro Schirm Mindestabstand zwischen zwei Fehlern Ort und Eindringtiefe des Fehlers Winkel länglicher Blasen (<15°) 78 Beim Einsatz eines Bildverarbeitungssystems dürfen folgende Einflüsse nicht stören: - Scherenschnitt (Deformation der Oberfläche, Schnittkante des Glastropfens) Inhomogene Oberfläche des Schirms (raue ungeschliffene gepresste Oberfläche) Lose Partikel/Verschmutzungen auf der Oberfläche Im Vergleich mit der manuellen Prüfung ergaben sich beim Bildverarbeitungssystem folgende Einsparmöglichkeiten: Bei automatischer Fehlererkennung an ungeschliffenen Schirmen: - geringere Personalkosten - geringerer Durchschlupf zum Kunden - weniger Reklamationen - Schleifkosteneinsparung, da keine defekten Schirme geschliffen werden Bei automatischer Fehlererkennung an geschliffenen Schirmen: - geringere Personalkosten - geringerer Durchschlupf zum Kunden - weniger Reklamationen Folgende Firmen wurden kontaktiert: - Pennekamp, Wuppertal IPS, Kanada Vitronic, Wiesbaden Pennekamp: Diese Firma bietet ein System für geschliffene und ungeschliffene Schirme. Das System kann Fehler erkennen, nicht aber klassifizieren. Deshalb ist eine Nachkontrolle der gefundenen Fehler notwendig. Es wurde daher als Sortierhilfe eingestuft. Dieses System wurde bei Schott bereits an ungeschliffenen Schirmen getestet. Die Tests verliefen nicht zufriedenstellend, laut Pennekamp müsste die Sauberkeit der Schirme und die Oberflächenqualität verbessert werden. Das System arbeitet mit einer Hellfeld-Durchlicht-Beleuchtung. Die Schirme sind nach dem Kühlband teilweise stark verschmutzt. Das System kann den losen Oberflächenschmutz nicht von Fehlern unterscheiden. Auch muss der Bereich des Scherenschnittes von der Inspektion ausgeschlossen werden. Ein Einsatz an geschliffenen Schirmen sollte dagegen ohne Probleme möglich sein. Diese Schirme zeigen keine Verschmutzung und haben im Gegensatz zu den ungeschliffenen Rohschirmen sehr gute optische Eigenschaften. Pennekamp entwickelt ein neues System (Anfang 2001) mit höherer Leistungsfähigkeit in Bezug auf Auflösung und Erkennung. IPS: IPS bietet ein umfassendes, modulares System zur Fehlererkennung an geschliffenen Fernsehschirmen. Im Gegensatz zum System von Pennekamp ist es in der Lage, Fehlerarten zu klassifizieren, Fehler in der Höhe zu vermessen und einen Qualitätsentscheid zu fällen. Es wird daher als selbstentscheidendes System eingestuft. Da das System keine ungeschliffenen Schirme prozesssicher prüfen kann (Test Anfang 2000 erfolglos), plant IPS, ein neues System für ungeschliffene Schirme ca. Anfang 2002 auf den Markt zu bringen. 79 Vitronic: Vitronic bietet kein fertiges System zur Fehlererkennung an Fernsehglas an. Vitronic ist darauf spezialisiert, Bildverarbeitungs-Lösungen nach Kundenspezifikation zu erstellen. Für die Fehlererkennung an Fernsehglas wurde von Vitronic bereits ein Lösungskonzept erstellt, welches die Entwicklung eines neuartigen Sensors erfordern würde. Die geplante EU-Förderung des Entwicklungsvorhabens wurde jedoch nicht bewilligt, so dass dieser Weg zum damaligen Zeitpunkt nicht weiter verfolgt wurde. Eine Zusammenarbeit mit Vitronic kann dann sinnvoll sein, wenn die Wünsche der Firma Schott stark von den Standardsystemen der beiden anderen Hersteller abweichen. (Beispielsweise falls Schott eine „Low Cost“-Lösung zur Unterstützung des Sortierers einsetzen wollte). In jedem Fall muss aber mit einem hohen Aufwand für die Entwicklung gerechnet werden. Ergebnis der Studie: Das Einsparpotenzial einer automatischen Fehlererkennung ist vorhanden. Keine der kontaktierten Firmen bietet ein fertiges System für die automatische Fehlererkennung an ungeschliffenen Schirmen an, welches den Anforderungen von Schott gerecht wird. Sowohl die Firma Pennekamp als auch die Firma IPS entwickeln ein neues System, um ungeschliffene Schirme prozesssicher zu inspizieren. Für ungeschliffene Schirme bieten beide Firmen Systeme an. Diese Systeme unterscheiden sich erheblich in den Anschaffungskosten und in der Leistungsfähigkeit. Die Firma Vitronic wäre in der Lage ein für Schott maßgeschneidertes System zu entwickeln. Dies würde aber zu hohe Entwicklungskosten nach sich ziehen. 80 8 Ausblick In dieser Arbeit ging es einerseits darum, einen Überblick über das Themengebiet Bildverarbeitung zu geben. An einigen Stellen klang andererseits schon an, dass eine solche Zusammenfassung nur eine Momentaufnahme sein kann. Gerade bei der Bildverarbeitung ist ein steigendes Tempo bei der Entwicklung von neuen Technologien festzustellen. Es zeigte sich, dass der anscheinend so einfache menschliche Sehvorgang („Das sieht man doch!“) äußerst komplex ist und nur schwer in digitalisierter Form nachgebildet werden kann. Die Entwicklung versucht, die beschränkten Möglichkeiten von Bildverarbeitungssystemen ständig zu erweitern. Dies ist aber nur durch den Einsatz von umfangreicheren Algorithmen möglich. Früher kamen durch die beschränkte Rechenleistung nur sehr einfache und unflexible Methoden zum Einsatz. Waren komplexere Aufgaben zu lösen, mussten mit erheblichem Aufwand ganze Rechenzentren für eine einzige Applikation aufgebaut werden, um die Berechnungen in kurzer Zeit ausführen zu können. Heute ist bereits die Rechenleistung von standardisierten Systemen groß genug, um komplizierte Algorithmen zu verwenden. Die möglichen Einsatzgebiete vergrößern sich daher ständig. Zum einen können durch die gesteigerten Möglichkeiten neue Aufgaben gelöst werden. Zum anderen werden durch die Standardisierung, sowohl in der Hardware als auch in der Software, die Kosten so gering, dass die Bildverarbeitung an Stellen eingesetzt werden kann, an denen sie früher zu kostspielig war. Außerdem wird trotz der verwendeten komplizierten Methoden die Bedienung der Systeme immer einfacher werden. Die Bildverarbeitung bietet ein immenses Potenzial, das es in Zukunft zu nutzen gilt. Bei der allgemeinen Euphorie ist aber auch zu beachten, dass ein System nur so flexibel sein kann, wie es die Programmierung durch den Menschen vorsieht. Bei der Bildverarbeitung geht es um ein „Erkennen“ von bestimmten Eigenschaften. Dies beinhaltet Entscheidungen, die vom Menschen vorgegeben werden müssen. Die vorgestellten Beispiele aus der Praxis zeigten, dass die Zusammenarbeit von Kunde und Lieferant immer wichtiger ist. Dies gilt sicher nicht nur für die Glasindustrie. Es ist Aufgabe des Kunden, die relevanten Eigenschaften genau zu definieren. Der Lieferant seinerseits muss sicherstellen, dass diese Eigenschaften im Sinne des Kunden ausgewertet werden. Vielleicht kann durch diese Arbeit verdeutlicht werden, dass auch der Kunde ein „Gespür“ für die möglichen Missverständnisse und die momentanen Grenzen entwickeln muss, damit die Projektabwicklung erfolgreich verläuft. 81 9 Literatur- und Quellenverzeichnis 9.1 Quellen [Hering92] E. Hering / R. Martin / M Stohrer „Physik für Ingenieure“ Springer Verlag, Berlin 1992 [Jahr00] I. Jahr Vortrag “Auswahl der richtigen Beleuchtung“ Firma VISION&CONTROL, Suhl 2000 [Demant98] C. Demant / B. Streicher-Abel / P. Waskewitz „Industrielle Bildverarbeitung“ Springer-Verlag, Berlin 1998 [VDMA00] „Automatisierung mit industrieller Bildverarbeitung 200/01“ VDMA Fachabteilung Industrielle Bildverarbeitung/Machine Vision Der Zielvorgabe eines Überblicks entsprechend nenne ich außer diesen direkt benutzten Quellen ausführlicher weitere Fundorte für Informationen zum Thema Bildverarbeitung. 9.2 weiterführende Literatur W. Abmayr „Einführung in die digitale Bildverarbeitung“ Teubner-Verlag, Stuttgart 1994 H. Ernst „Einführung in die digitale Bildverarbeitung“ Franzis-Verlag, München 1991 P. Haberäcker „Praxis der digitalen Bildverarbeitung und Mustererkennung“ Carl Hansa Verlag, München 1995 B. Jähne „Digitale Bildverarbeitung“ Springer-Verlag, Berlin 1997 H. Kuchling „Taschenbuch der Physik“ Harri Verlag, Frankfurt 1989 J.S. Lim „Two-Dimensional Signal an Image Processing“ Prentice Hall, Englewood Cliffs, New Jersey 1990 82 L. Papula „Mathematik für Ingenieure“ Vierweg & Sohn Verlag, Braunschweig 1991 H. J. Paus „Physik in Experimenten und Beispielen“ Carl Hansa Verlag, München 1995 H. Vogel „Gerthsen Physik“ Springer Verlag, Berlin 1997 K. Voß / H. Süße „Praktische Bildverarbeitung“ P. Zamperoni „Methoden der digitalen Bildsignalverarbeitung“ Vierweg & Sohn Verlag, Braunschweig 1989 9.3 Fachvorträge Gabriele Jansen „Kriterien für den erfolgreichen Einsatz von Bildverarbeitungssystemen“ Firma Quiss, Puchheim Klaus Bücher „Einsatzmöglichkeiten von Bildverarbeitungssystemen“ Firma Vitronic, Wiesbaden Michael Beising „Wie kommunizieren Bildverarbeitungssysteme“ Firma SAC, Karlruhe Manfred Hock „Die wirtschaftliche Bedeutung der Schlüsseltechnologie Bildverarbeitung“ VDMA, Franfurt Klaus Singer „Erhöhung der Wirtschaftlichkeit durch den Einsatz von Produktionsanlagen durch den Einsatz von Bildverarbeitungssystemen“ Firma tis, Erfurt 83 9.4 Fachmessen Optatec Internationale Fachmesse für Optik und Optoelektronik Juni 2000, Messegelände Frankfurt Control Internationale Fachmesse für Qualitätssicherung Mai 2000, Messe Sinsheim Glastec Internationale Fachmesse Maschinen – Ausrüstung – Anwendungen – Produkte Oktober 2000, Messe Düsseldorf Messcomp Kongreßmesse für industrielle Meßtechnik September 2000, Wiesbaden Motek Internationale Fachmesse für Montage- und Handhabungstechnik September 2000, Messe Sinsheim Vision Internationale Fachmesse für industrielle Bildverarbeitung und Identifikationstechnologien Oktober 2000, Stuttgart 9.5 Linksammlungen zum Thema Bildverarbeitung Coputer Visiosn Software http://www.cs.cmu.edu/~cil/v-source.html Forum für digitales Sehen www.bildanalyse.de Anbieter von Bildverarbeitungssystemen http://www.uni-kl.de/IIBV/anbieter.html Links zum Thema Bildverarbeitung, CCD-Kameras, Optik und Beleuchtung http://www.fh-giessen.de/FACHBEREICH/EI/links/bildverarbeitung.html gesammelte Links zur (Farb-)Bildverarbeitung http://www.forwiss.tu-muenchen.de/~hafner/public/bv-links.html 9.6 Internetseiten Thüringer Forschungsschwerpunkt „Bildverarbeitung, Mustererkennung und technische Sehsysteme“ http://kb-bmts.rz.tu-ilmenau.de/kb-bmts/default.htm Grundlagen der Bildverarbeitung http://wwwisg.cs.uni-magdeburg.de/lehre/bv/bv1.html 84 9.7 Firmenverzeichnis Basler AG An der Strutsbek 60-62 22926 Ahrensberg www.baslerweb.com Cognex Germany, Inc Emmy-Noether-Straße 11 76131 Karlsruhe www.cognex.com Data Translation GmbH Im Weierleben 10 74321 Bietigheim-Bissingen www.datatranslation.de DS GmbH Neckarstr. 76/1 71686 Remseck www.ds-gmbh.com Ernst Pennekamp GmbH & Co. KG Hölker Feld 22 42279 Wuppertal FiberVision GmbH Jens-Otto-Krag-Straße 11 52146 Würselen www.fibervision.de Frauenhofer Allianz Vision Am Weichselgarten 3 http://vision.fhg.de Herd Software Entwicklung Rudolf-Virchow-Straße 8 68642 Bürstadt www.herdsoft.com HGV Vosseler GmbH & Co. KG An der Lehmgrube 9 74613 Öhringen www.hgv.de IPS, Image Processing Systems Inc. 221 Whitehall Drive Markham, ON, Canada L3R 9T1 www.ipsautomation.com 85 ISRA Vision Systems AG Industriestraße 14 64297 Darmstadt www.isra.de LASOR AG Rudolf-Diesel-Straße 24 33813 Oerlinghausen www.lasor.com Matrox Electronic Systems GmbH Inselkammerstarße 8 82008 Unterhaching www.matrox.com Matsushita Electric Works Deutschland GmbH Rudolf-Diesel-Ring 2 83607 Holzkirchen www.matsushita.de MVTec Software GmbH Neherstraße 1 81675 München www.mvtec.com National Instruments Germany GmbH Konrad-Celtis-Straße 79 81369 München www.ni.com Optik, Elektronik & Gerätetechnik Wildbahn 8b 15236 Frankfurt Oder www.oeg-messtechnik.de Optmetron GmbH Riemerstr. 358 81829 München www.optometron.de Quiss GmbH Lilienthalstraße 5 82178 Puchheim www.quiss.com SAC GmbH Sirius Advanced Cybernetics Haid- und Neu Str. 7 76131 Karlsruhe www.sac-vision.de 86 Schott Glas Hattenbergstraße 10 55014 Mainz www.schott.de Stemmer Imaging GmbH Gutenbergstraße 11 82178 Puchheim www.stemmer-immaging.de tis, technologie intelligenter sensoren Flughafenstraße 4 99092 Erfurt www.tis-erfurt.de VDMA Verband deutscher Maschinen- und Anlagenbau e.V. Lyoner Strasse 18 60528 Frankfurt Viscom GmbH Industrielle Bildverarbeitung Carl-Buderus-Str. 9-15 30455 Hannover www.viscom.de VISION & CONTROL GmbH Pfütschbergstraße 16 98527 Suhl www.vision-control.de Vision Components GmbH Ottostraße 2 76275 Ettlingen www.vision-components.de VITRONIC Dr.-Ing. Stein Bildverarbeitungssysteme GmbH Hasengartenstraße 14a 65189 Wiesbaden www.vitronic.de 87 Danksagung An dieser Stelle möchte ich allen danken, die zum Gelingen dieser Arbeit beigetragen haben: In erster Linie gilt mein Dank dem Referenten dieser Arbeit, Herrn Prof. Dr. rer. nat. Gerd Küveler, sowie dem Korreferenten, Herrn Dipl. Ing. (FH) Stephan Drozniak, für ihre kompetenten Kommentare und Verbesserungsvorschläge. Ebenfalls möchte ich mich bei folgenden Firmen für ihre Unterstützung bedanken: - - bei der Firma SCHOTT Glas, die die Erstellung dieser Arbeit ermöglicht hat bei der Firma DS-GmbH für ihre Leihgabe eines Bildverarbeitungssystems, mit dem ich während der gesamten Diplomarbeit sehr schnell die erarbeitete Theorie in der Praxis überprüfen konnte. bei der Firma VISION & CONTROL (Herrn Dipl.-Ing. Ingmar Jahr) für die Bereitstellung des umfangreichen Bildmaterials. bei den Firmen FiberVision, Cognex, Matsushita und SAC für die zur Verfügung gestellten Leihsysteme. bei den Firmen ISRA und Vitronic für die Möglichkeit bei ihnen vor Ort Anlagen ausführlich testen zu können. Den Mitarbeitern der Abteilung Forschung und Technologieentwicklung Veredelungstechnik habe ich für das hervorragende Arbeitsklima zu danken. Besonderer Dank gilt meiner Familie und meinen Freunden, auf deren Unterstützung ich mich immer verlassen konnte. 88