2011 – Medizinische Physik

Transcription

2011 – Medizinische Physik
3 Ländertagung der ÖGMP, DGMP und SGSMP
2011 – Medizinische Physik
Wien, 28.09.-01.10.2011
Abstracts
ISBN: 3-925218-89-0
Wissenschaftliches Komitee
Leitung:
Prof. Dr. Helmar Bergmann
Strahlentherapie:
Dr. Markus Alber, München
Prof. Dr. Dimos Baltas, Offenburg
Prof. Dr. Ludwig Bogner, Regensburg
Prof. Dr. Wolfgang Enghardt, Dresden
Prof. Dr. Dietrich Harder, Göttingen
Dr. Norbert Hodapp, Freiburg
Prof. Dr. Peter Kneschaurek, München
Prof. Dr. Uwe Oelfke, Heidelberg
Prof. Dr. Björn Poppe, Oldenburg
Prof. Dr. Wolfgang Schlegel, Heidelberg
PD Dr. Harald Treuer, Köln
Dr. Tilo Wiezorek, Jena
Prof. Dr. Ulrich Wolf, Leipzig
Prof. Dr. Klemens Zink, Giessen-Marburg
Prof. Dr. Dietmar Georg, Wien
Dr. Peter Manser, Bern
PD Dr. Uwe Schneider, Aarau
Röntgendiagnostik:
Prof. Dr. Christoph Höschen, Neuherberg/München
Prof. Dr. Willi Kalender, Erlangen
Dr. Michael Wucherer, Nürnberg
Prof. Dr. Peter Homolka, Wien
Prof. Dr. Francis Verdun, Lausanne
MR-Bildgebung:
PD Dr. Michael Bock, Heidelberg
Prof. Dr. Gunnar Brix, Neuherberg/München
Dr. Günther Schulz, Freiburg
Prof. Dr. Uwe Klose, Tübingen
Prof. Dr. Laura Schreiber, Mainz
Prof. Dr. Ewald Moser, Wien
Prof. Dr. Klaus Scheffler, Basel
Nuklearmedizin:
Prof. Dr. Gerhard Glatting, Ulm
Prof. Dr. Jörg van den Hoff
Prof. Dr. Michael Lassmann, Würzburg
Dr. Michael Mix, Freiburg
PD Dr. Klaus Schäfers, Münster
Prof. Dr. Sibylle Ziegler, München
Dr. Boris Warwitz, Innsbruck
Prof. Dr. Fred Corminboeuf, Lausanne
Dr. Claudia Kuntner, Seibersdorf
Strahlenschutz / QS:
Dr. Wolfgang Eschner, Köln
PD Dr. Lilli Geworski, Hannover
Univ. Doz. Dr. Georg Stücklschweiger, Graz
Dr. Gerd Lutters, Aarau
Bildverarbeitung:
Prof. Dr. Nassir Navab, München
Prof. Dr. Wolfgang Birkfellner, Wien
2
Audiologie:
Prof. Dr. Dr. Biger Kollmeier
Dr. Bernhard Laback
Biomedizinische Technik:
Prof. Dr. Olaf Dössel
Prof. Dr. Winfried Mayr
Optik
Prof. Dr. Wolfgang Drexler, Wien
Prof. Dr. Monika Ritsch-Marte
Team
Die Veranstaltung findet unter Schirmherrschaft der ÖGMP, DGMP
und SGSMP statt.
Tagungspräsident:
Univ.-Doz. Dipl.-Ing. Dr. Dietmar Georg
Medizinische Universität Wien,
Univiversitätsklinik für Strahlentherapie,
Abteilung für Med. Strahlenphysik
Währinger Gürtel 18-20, A- 1090 Wien
Präsident der ÖGMP:
Dr. Werner Schmidt
Institut für Radioonkologie,
SMZO Wien -Donauspital,
Langobardenstraße 122, A-1220 Wien
Wissenschaftliches Programm:
Prof. Dr. Helmar Bergmann
Medizinische Universität Wien,
Zentrum für Medizinische Physik und Biomedizinische Technik,
Währinger Gürtel 18-20, A-1090 Wien
Lokale Organisation:
Prof. Dr. Wolfgang Birkfellner
Medizinische Universität Wien,
Zentrum für Medizinische Physik und Biomedizinische Technik,
Währinger Gürtel 18-20, A-1090 Wien
Kongressorganisation:
Wiener Medizinische Akademie
Alser Strasse 4, A-1090 Wien
Telefon: +43 1 405 13 83 0,
Fax: +43 1 405 13 83 23
e-mail: [email protected]
www.medacad.org
Industrieausstellung und Sponsoring:
Medizinische Ausstellungs- und Werbegesellschaft
Freyung 6, A-1010 Wien
Telefon: +43 1 536 63 30
Fax: +43.1.535 60 16
e-mail: [email protected]
Inhaltsverzeichnis
VORTRÄGE ...........................................................................................................................................................................................................................4
Pre-Kongress: Binaurales Hören mit Hörgeräten und Cochleaimplantaten......................................................................................................................4
Session 1: Präzisions-Radiotherapie mittels Photonen I ..................................................................................................................................................6
Session 2: Präzisions-Radiotherapie mittels Photonen II ...............................................................................................................................................10
Session 3: Information und Bildverarbeitung ..................................................................................................................................................................15
Session 4: Instrumentierung und Bildverarbeitung .........................................................................................................................................................18
Session 5: Strahlenschutz und Qualitätssicherung.........................................................................................................................................................21
Session 6: Qualitätssicherungsaspekte bei Spezialverfahren der Strahlentherapie.......................................................................................................24
Session 7: Audiologie - Qualitätsaspekte beim Hören mit Bilateralen Cochleaimplantaten und Hörgeräten .................................................................28
Session 8: Aktuelle Entwicklungen in der Dosimetrie .....................................................................................................................................................30
Session 9: Freie Themen aus dem Bereich der Strahlentherapie ..................................................................................................................................34
Session 10: Audiologie....................................................................................................................................................................................................38
Session 11: Protonen- und Ionentherapie: Neue Anlagen und Technologien ................................................................................................................40
Session 12: Protonen- und Ionentherapie: Präzisionstherapie und biologische Modellierung .......................................................................................43
Session 13: Nuklearmedizin - Quantitative Bildgebung ..................................................................................................................................................46
Session 14: Präklinische Bildgebung ..............................................................................................................................................................................48
Session 15: Radiodiagnostik...........................................................................................................................................................................................49
Session 16: Strahlentherapie - Dosisberechnungsalgorithmen und Monte-Carlo Anwendungen ..................................................................................51
Session 17: Optische Bildgebung - Morphologie, Kontrasterhhung und Gewebsfunktion..............................................................................................55
Session 18: Optische Bildgebung II ................................................................................................................................................................................56
Session 19: Funktionelle und strukturelle Hochfeld MR - aktuelle Entwicklungen..........................................................................................................58
Session 20: Hochfeld MR II.............................................................................................................................................................................................60
Session 21: Rekonstruktion, Visualisierung, Technologien ............................................................................................................................................64
Session 22: Rekonstruktion, Visualisierung II .................................................................................................................................................................65
Session 23: Biochemische und molekulare Informationen im MR-Signal: Spektroskopie und mehr..............................................................................68
Session 24: Biochemische und molekulare Informationen im MR-Signal: X-Kerne und spezielle MRI-Anwendungen..................................................71
Session 25: Biomedizinische Technik I...........................................................................................................................................................................74
Session 26: Biomedizinische Technik II............................................................................................................................................................................76
Session 27: Medizinische Physik in den Entwicklungsländern .......................................................................................................................................81
POSTER ...............................................................................................................................................................................................................................83
Poster 01: MRI und Spektroskopie .................................................................................................................................................................................83
Poster 02: Biomedizinische Technik ...............................................................................................................................................................................85
Poster 03: Freie Themen ................................................................................................................................................................................................88
Poster 04: Bildgebung und Bildverarbeitung...................................................................................................................................................................91
Poster 05: Strahlenschutz ...............................................................................................................................................................................................95
Poster 06: Bildgeführte Radiotherapie (IGRT) ................................................................................................................................................................99
Poster 07: Dosisberechung und Monte-Carlo Anwendungen in der Strahlentherapie .................................................................................................102
Poster 08: Protonen- und Ionentherapie .......................................................................................................................................................................105
Poster 09: Dosimetrie und Qualitätssicherung in der Strahlentherapie ........................................................................................................................113
Poster 10: IMRT - Bestrahlungsplanung, Verifikation und klinische Erfahrung.............................................................................................................125
AUTORENINDEX ...............................................................................................................................................................................................................133
Für in der fortlaufenden Nummerierung fehlende Abstracts wurden keine Texte eingereicht.
3
VORTRÄGE
Pre-Kongress: Binaurales Hören mit
Hörgeräten und Cochleaimplantaten
A.01
Temporal information processing in the binaural auditory system
S. van de Par;
Acoustics Group, Oldenburg, Germany.
The binaural auditory system enables listeners to hear the direction of
sound sources but also to better hear the presence of specific sound
sources that are presented in background noise such as is demonstrated
by the Binaural Masking Level Difference that is observed in basic
psycho acoustical studies. This ability to hear the presence of a certain
sound source based on binaural cues would be rather useless if in
practical situations we were not able to recognize any of the specific
characteristic of the target source. Therefore in this presentation some
experiments will be discussed that deal with the ability to hear basic
characteristics of a target source in the presence of background noise
using binaural cues.
The first set of experiments deal with tone complexes that are masked
by noise that covers the same spectro-temporal interval and which have
different interaural parameters. Results show that listeners were able to
hear the temporal characteristics of the tone complex at presentation
levels where the tone complex could not be heard based on only
monaural cues. This indicates that the binaural system is able to
temporally process the binaural cues resulting from the target signal.
The second experiment investigates with similar tone complexes that are
presented in masking noise under what conditions the binaural cues
corresponding to the tone complex can be processed such that the
correct lateral position of the tone complex is heard by the listeners.
Because the components of the tone complex are spectrally unresolved,
there is no auditory filter where the tone complex dominates in power
over the noise and segregation of the tone complex from the background
noise can only be achieved based on fast temporal binaural processing
of alternating binaural cues. Results suggest that the binaural system is
fast enough to temporally resolve binaural cues at a rate of up to 40 Hz
and hear the correct lateral positions of the different stimulus
components that are mixed together.
To conclude, some suggestions will be derived from these experiments
with regard to binaural cue representations that are required in binaural
hearing aids.
A.02
Wahrnehmung von interauralen Zeitdifferenzen bei
Cochleaimpantatträgern und Schwerhörigen
B. Laback, P. Majdak;
Institut für Schallforschung, Österreichische Akademie der
Wissenschaften, Wien, Austria.
Die Kodierung der lateralen Position einer Schallquelle basiert auf der
Auswertung von binauralen Unterschieden zwischen den an den beiden
Ohren eintreffenden Schallwellen. Diese Unterschiede sind interaurale
Pegeldifferenzen und interaurale Zeitdifferenzen (ITDs). Insbesondere
ITDs sind wichtig für die Lokalisation von Schallquellen, die
Sprachwahrnehmung im Störgeräusch, und die räumliche Orientierung
in komplexen akustischen Umgebungen. ITDs werden bei tiefen
Frequenzen primär im Trägersignal (Feinstruktur) und bei hohen
Frequenzen - im Falle von amplitudenmodulierten Signalen - in der
Hüllkurve ausgewertet. Personen mit cochleärem Hörschaden zeigen oft
reduzierte ITD-Sensitivität im Vergleich zu Normalhörenden. Diese
Reduktion betrifft sowohl Feinstruktur- als auch Hüllkurven-ITD, erstere
aber in stärkerem Ausmaß. Mögliche Ursachen für reduzierte
Feinstruktur-ITD-Sensitivität bei cochleärem Hörverlust sind a)
reduzierte Anzahl von Hörnervenfasern und b) Veränderung des
spektro-temporalen Anregungsmusters innerhalb eines Frequenzbandes
und die dadurch verursachte Störung der Kodierung der zeitlichen
Information über die Nervenfasern hinweg. Eine mögliche Ursache für
reduzierte Hüllkurven-ITD-Sensitivität ist die mit cochleärem Hörverlust
einhergehende Veränderung der Phasenantwort der auditorischen Filter
und die damit verbundene suboptimale auditorische Repräsentation der
zeitlichen Modulation.Cochleaimpantatträger zeigen ebenfalls starke
4
Reduktion sowie grosse interindividuelle Variabilität der ITD-Sensitivität
bei exakter binauraler Kontrolle der Elektrodensignale. Im Falle von ITD
zwischen den Einzelpulsen (definiert als Feinstruktur) nimmt die
Sensitivität mit steigender Pulsrate rapide ab, ähnlich dem sogenannten
binauralen Adaptationseffekt bei der Hüllkurven-ITD-Wahrnehmung bei
Normalhörenden. Im Falle von Hüllkurven-ITD tritt eine allgemeine
Reduktion der Sensitivität gegenüber Normalhörenden auf. Mögliche
Ursachen für die verschiedenen Aspekte der Reduktion der ITDSensitivität bei Cochleaimpantatträger werden derzeit untersucht. Die
Wahrnehmung breitbandiger oder multipler Schallquellen stellt aufgrund
der bei Schwerhörigen und Cochleaimpantatträgern reduzierten
spektralen Auflösung eine besondere Herausforderung dar. Die
Wahrnehmung von ITD-Information in einem Frequenzband kann durch
Kanalinteraktionen mit gleichzeitig dargebotenen Nachbarkanälen
gestört werden. Testbedingungen mit breitrandigen und/oder multiplen
Schallquellen wurden bisher aber wenig untersucht. Neben der
Einführung in die ITD-Wahrnehmung bei Schwerhörigen und
Cochleaimpantatträgern geht der Vortrag auf die praktischen
Auswirkungen beim räumlichen Hören und auf die Entwicklung von
Strategien zur gezieltem Verbesserung der ITD Wahrnehmung in
zukünftigen bilateralen Hörsystemen ein.
A.03
Binaurale Hörgeräte in der Praxis: Technologie und Zufriedenheit
M. Kinkel;
KIND Hörgeräte, Burgwedel, Germany.
Das binaurale Hören bildet eine wesentliche Voraussetzung für das
räumliche Hören und das Richtungshören und ist damit unabdingbar für
das Sprachverstehen in komplexen und lärmbehafteten Hörsituationen.
Viele
Schwerhörige
leiden
besonders
unter
ungenügenden
Hörleistungen, besonders unter einem reduzierten Sprachverstehen in
solchen Hörsituationen. In der Praxis liegt in den meisten Fällen eine
symmetrische, beide Ohren gleichermaßen betreffende Schwerhörigkeit
vor. Diese Fälle sollten möglichst auch mit zwei Hörgeräten versorgt
werden. Während bisher die Signalverarbeitung in beiden Hörgeräten
unabhängig voneinander war ("bilaterale" Versorgung), gibt es
mittlerweile Systeme, bei denen beide Hörgeräte drahtlos gekoppelt
werden können ("binaurale" Versorgung). Zunächst konnten lediglich die
Bedienelemente synchronisiert werden, so dass sich vor allem Vorteile
bei der Bedienung der Hörgeräte ergaben. Mittlerweile ermöglicht die
zunehmende Bandbreite der Verbindung komplexere Formen der
Signalverarbeitung. Im Beitrag werden die technischen Möglichkeiten
und Limitationen sowie die daraus entstehenden Vorteile für das Hören
in komplexen Hörsituationen dargestellt. Dabei wird besonders auf die
Erfahrungen aus der Praxis eingegangen.
A.04
Evaluating the spatial quality of binaural hearing aid signal
processing algorithms
S. Schimmel, M. F. Müller, N. Dillier;
Laboratory for Experimental Audiology, ENT Department, University
Hospital Zurich, Switzerland.
Binaural hearing aids have two main advantages over two independently
operating monaural hearing aids. First, binaural hearing aids can handle
more complex acoustical scenes, because they have access to
microphone signals from either side of the head. Second, they can
present the spatial aspects of acoustical scenes as naturally as possible,
because they have complete access to all binaural cues in the input
signal, and full control over the binaural cues presented to the hearing
aid user. The spatial aspects of an acoustical scene are sound source
attributes such as the perceived direction, distance, externalization, and
width, as well as sound enclosure attributes such as reverberation time
and envelopment. To evaluate how binaural signal processing
algorithms affect spatial perception, an objective measure of spatial
quality is required. Given the binaural input and output signals of an
algorithm, such an objective measure would determine how much each
of the spatial attributes is affected by the algorithm. In our work, we are
developing an objective measure using a data-driven approach based
on virtual acoustics and models of binaural signal processing of the
auditory system. In this talk, we present a brief overview of the methods
and models that we use to study spatial perception. We discuss the
binaural cues of realistic signals in more detail, and demonstrate the
importance of interaural coherence as a binaural cue. We conclude with
an outlook on our future work.
A.05
Speech Dereverberation for Hearing Aids with a Binaural Data Link
1,2
1,2
1,2
H. Löllmann , M. Jeub , P. Vary ;
Institut für Nachrichtengeräte und Datenverarbeitung, RWTH Aachen,
2
Germany, Institute of Communication Systems and Data Processing,
RWTH Aachen University, Aachen, Germany.
1
Persons with hearing aids often experience a substantial loss of listening
comfort or speech intelligibility, if they communicate with other persons
in noisy or reverberant environments. Therefore, speech enhancement
algorithms are a common feature of modern hearing aids. A recent trend
is thereby to establish a binaural data link between both hearing aid
devices in order to improve the enhancement of acoustically distorted
speech signals. While most algorithms for binaural speech enhancement
aim for the enhancement of noisy speech, the enhancement of
reverberant speech is still in an early stage. In this contribution, we
present a two-stage approach for binaural speech dereverberation in
hearing aids, which achieves a suppression of early and late reverberant
speech. An important feature is that the overall binaural processing does
not affect the most important binaural cues, i.e., the interaural time
difference (ITD) and the interaural level difference (ILD). This is
important for speech enhancement in hearing aids to preserve the ability
for source localization in the azimuth plane. The first stage of the
algorithm is based on a spectral subtraction where the weights depend
on the spectral variance of the late reverberant speech. The computation
of this spectral variance in turn requires an estimate of the reverberation
time. This is accomplished by an efficient algorithm, which is based on a
maximum likelihood (ML) estimation. The output of the first stage is
further enhanced by a two-channel Wiener filter in a second step. This
filter is derived by a coherence model which takes the shadowing effects
of the head into account. The presented algorithms works blindly, i.e., all
needed quantities are estimated from the reverberant speech so that no
a priori information about the acoustical environment is required.
Experiments have shown that the proposed system achieves a
significant reduction of early and late reverberation.
binaural link which is only possible for very low-power consuming
binaural links.
References:
[1] T. van den Bogaert, et. al.: Speech enhancement with multichannel
Wiener filter techniques in multimicrophone binaural hearing aids,
Journal of the Acoustical Society of America, vol. 125, no. 1, pp. 360371, Jan. 2009 [2] R. Aichner, et. al.: A Real-Time Blind Source
Separation Scheme and its Application to Reverberant and Noisy
Acoustic Environments, Signal Processing, vol. 86, pp. 1260-1277, June
2006 [3] K. Reindl, et. al.: Combining Monaural Beamforming and Blind
Source Separation for Binaural Speech Enhancement in MultiMicrophone Hearing Aids, in Proc. ITG Conference on Speech
Communication, Bochum, Oct. 2010
A.07
Binaurale Signalverarbeitung - Trends der Hörgerätetechnologie
V. Hohmann;
Medizinische Physik, Universität Oldenburg, Oldenburg, Germany.
Mit der (Weiter-)Entwicklung der drahtlosen Signalübertragungstechnik
mit minimalem Energiebedarf lassen sich zunehmend komplexe
binaurale Signalverarbeitungsstrategien realisieren. Während die ersten
kommerziellen Systeme nur einige Signalparameter drahtlos zwischen
den Hörgeräten an beiden Ohren übertragen konnten, rückt nun die
Übertragung des kompletten Audiosignals in den Bereich des technisch
Möglichen. Dieser Vortrag stellt die Perspektiven der binauralen
Signalverarbeitung für die Anwendung in Hörgeräten vor, die sich
teilweise auf CI-Systeme übertragen lassen. Insbesondere kann in
Kombination
mit
Richtmikrofon-Techniken
die
Leistung
von
Störgeräuschunterdrückungssystemen
erhöht
werden.
Zukünftig
erscheint auch die Nutzung von Prinzipien der menschlichen
auditorischen Szenenanalyse in binauralen Algorithmen möglich.
Weiterhin kann die Rückkopplungskontrolle bei akustischer Stimulation
verbessert werden. Abschließend kann die Kopplung der
Kompressionssysteme rechts und links zu einer Verbesserung des
Klangbildes führen.
A.06
Binaural Processing in Hearing Aids: Opportunities and
Constraints
H. Puder;
Siemens Audiologische Technik GmbH, Erlangen, Germany.
Binaural signal processing in hearing aids, which we define here as an
audio signal processing based on the full audio signals of both, left and
right, hearing instruments, offers a large potential for increasing the
speech quality and intelligibility.
First of all, new binaural beamformers can be designed which overcome
the known limitation due to the small microphone distance of monaural
hearing aid beamformers. These are the microphone noise which limits
the directional performance for low frequencies and the broad frontal
beam-pattern.
One typical target of binaural beamformers is to narrow the frontal beam
and increase the directivity index, which is a measure for diffuse noise
reduction, and to attenuate competing signals at angles of arrival outside
the look direction of about +/- 45°. Wiener filters or blind source
separation based approaches have been published in the last years
which target this problem [1,2]. Usually monaural beamformers are
calculated on both sides first, and the output signals are then exchanged
between the hearing aids and used for a binaural processing [3].
Additionally, the binaural approach offers the opportunity to setup a
beamformer for small ITE (in-the-ear) hearing aid devices where only
one microphone can be integrated and no monaural beamforming is
possible. A third opportunity offered by binaural beamforming is to steer
the beam to side directions which allows to follow conversations where
the conversation partner is located aside such as in car situations or
when walking next to each other along a noisy street.
Of course all binaural setups require a binaural audio link at a high date
rate for wide-band audio signals and a low latency in order to limit the
latency of the audio processing. Since such systems are integrated in
hearing aids, current consumption is a major issue and has to be
considered when designing the audio transmission.
A major constraint for binaural beamforming is the preservation of
binaural cues, meaning to preserve the phase and amplitude differences
of the right and left hearing aid signals after binaural processing. This is
the basis for a correct signal localization.
Aside the binaural beamformer, the binaural processing offers large
opportunities in enhancing the performance of wind noise reduction and
feedback cancellation.
The basic property which is explored in these setups is that both, wind
noise and feedback typically occur independently in both hearing aids.
These approaches, however, require a continuous activation of the
A.08
Effects of interaural level differences on the externalization of
sound
T. Dau, J. Buchholz, J. Catic;
Centre for Applied Hearing Research, Technical University of Denmark,
Kopenhagen, Denmark.
Distant sound sources in our environment are perceived as externalized
and are thus properly localized in both direction and distance. This is
due to the acoustic filtering by the head, torso, and external ears, which
provides frequency dependent shaping of binaural cues, such as
interaural level differences (ILDs) and interaural time differences (ITDs).
Further, the binaural cues provided by reverberation in an enclosed
space may also contribute to externalization. While these spatial cues
are available in their natural form when listening to real-world sound
sources, hearing-aid signal processing - such as wide dynamic range
compression - affects the ILDs and thereby potentially reduces the
perceived degree of externalization. In the present study, the effect of
room reverberation on the spectro-temporal behavior of ILDs was
investigated. This was done by analyzing speech played at different
distances and recorded on a head-and-torso simulator in a standard IEC
268-13 listening room. Next, the effect of ILD fluctuations on the degree
of externalization was investigated in a listening experiment with normalhearing listeners. The experiment was performed in the same standard
listening room and a distant speech source was simulated via
headphones using individual binaural impulse responses. The speech
signal was then processed such that the naturally occurring ILD
fluctuations were compressed. This manipulation reduced the perceived
degree of externalization in the listening experiment, which is consistent
with the physical analysis that showed that a decreased distance to the
sound source also reduced the fluctuations in ILDs.
A.09
Stimuluseffekte beim Richtungshören mit Cochlea Implantaten in
Räumen geben Hinweise für neue Verarbeitungsstrategien
B. U. Seeber, S. Kerber;
MRC Institute of Hearing Research, Nottingham, United Kingdom.
Cochlea Implantate (CIs) ermöglichen vielen tauben Personen Sprache
in ruhiger Umgebung zu verstehen. Hintergrundschalle und Raumhall
erschweren jedoch das Sprachverständnis oder machen es sogar
5
umöglich. Mit bilateralen CIs verbessert sich das Sprachverstehen
zumeist, insbesondere wenn Sprache und Störschall räumlich separiert
sind. Bilaterale CIs ermöglichen weiterhin, Schallrichtungen zu
bestimmen. Es ist jedoch fraglich, inwieweit die Lokalisation in
natürlichen Umgebungen mit Raumhall möglich ist, nicht nur weil die
Patienten berichten, dass Raumhall problematisch ist, sondern auch weil
die Lokalisation mit CIs überwiegend auf der Auswertung von
interauralen Pegeldifferenzen basiert. Bei Normalhörenden sind
dagegen interaurale Zeitdifferenzen ausschlaggebend. In der
vorliegenden Studie wurde der Einfluss von Raumhall auf die
Schalllokalisation mit verschiedenen Stimuli untersucht. Die
Untersuchungen fanden in der “Simulated Open Field Environment”
statt, einer Laborumgebung in einem reflexionsarmen Raum, mit der das
Schallfeld von Räumen wiedergegeben werden kann. Dazu wurden die
Schallreflexionen an den Wänden eines üblichen Wohnraumes simuliert
und einzeln über Lautsprecher abgespielt, wobei u.a. die Laufzeit, die
entfernungsabhängige Dämpfung und die spektralen Effekte bei der
Reflexion berücksichtigt wurden. Die Halligkeit des Raumes wurde über
das Verhältnis von Direktschall zu reflektierter Energie (DRR) variiert,
wobei das Reflexionsmuster konstant gelassen wurde, um Einflüsse der
Richtung der frühen Reflexionen auszuschliessen. Es nahmen zehn
Probanden mit bilateralen CIs teil. Bereits moderater Raumhall wirkte
sich stark auf das Lokalisationsvermögen mit CIs aus. Eine
Beeinträchtigung war ab einem DRR von 0 bis +10 dB, je nach Proband,
für einen Sprachschall nachzuweisen. Raumhall hatte dagegen keinen
Einfluss auf die Lokalisation von normalhörenden Probanden, sofern das
DRR grösser als -8 dB war. CI-Träger können somit ca. 10 dB weniger
Raumhall tolerieren, was bei der Gestaltung von Lernumgebungen für
diese Gruppe berücksichtigt werden sollte. Ein weiterer Vorschlag zur
Verbesserung des Richtungshörens in reflexionsbehafteter Umgebung
kann von den Ergebnissen für pulsatile Stimuli abgeleitet werden. Einige
Patienten zeigten für diese eine deutlich verbesserte Toleranz
gegenüber Reflexionen, die bei manchen sogar an die von
normalhörenden Probanden heran reichte. Sie konnten offensichtlich
Information aus dem scharfen Schallanstieg am Beginn entnehmen,
bevor die eintreffenden Reflexionen die binaurale Information
veränderten. In neuen Strategien sollte daher der Schallanstieg steiler
gemacht werden, um die perzeptive Gewichtung der binauralen
Information am Schallbeginn zu erhöhen. Gefördert vom Medical
Research Council (UK) und Cochlear Europe.
A.10
Audiologische Ergebnisse nach Cochlea Implantation bei
Einseitiger Taubheit
S. Pok, M. Schlögel, B. Hiermayer, K. Böheim;
HNO-Abteilung, Landesklinikum, St. Pölten, Austria.
Fragestellung:
Evaluation
des
präund
postoperativen
Sprachverstehens in Ruhe und Störschall nach Cochlea Implantation bei
einseitiger Taubheit. Nachgehen der Frage, ob die elektrische
Stimulation eine Auswirkung auf einen chronischen therapieresistenten
Tinnitus im ertaubten Ohr hat. Methoden: 10 Patienten mit unilateraler
postlingualer Ertaubung mit kontralateralem normalen Gehör bzw. bis
maximal mittelgradigen HG-versorgten sensorineuralen Hörverlust
wurden inkludiert. Bei 4 Patienten stellte ein quälender
therapieresistenter Tinnitus die primäre Motivation zur Cochlea
Implantation dar. Erhoben wurde das Sprachverstehen ohne und mit
Cochlea Implantat mittels Freiburger Einsilbertest in Ruhe sowie mittels
adaptivem Oldenburger Satztest in einem binauralen Test Setup. Die
subjektive Beeinträchtigung durch Tinnitus wurde prä- und postoperativ
mittels TBF-12 Fragebögen quantifiziert. Ergebnisse: 9 der 10 Patienten
tragen ihr CI den ganzen Tag. Alle 10 Patienten erzielen ein offenes
Sprachverstehen mit dem CI alleine. Den größten Zugewinn in der
bimodalen Testbedingung (CI und kontralaterales akustisches Gehör)
weisen diejenigen Patienten auf, welche eine zusätzliche Hörminderung
am nicht implantierten Ohr aufweisen. Im Störschall zeigen sich
Verbesserungen im Sprachverstehen vor allem in schwierigen
(binauralen) Hörbedingungen: bei allen getesteten Patienten lies sich ein
Kopfschatteneffekt bis 4 dB (delta SRT50, OLSA Satztest) nachweisen.
Mit dem CI kann jedoch im Gegensatz zu unilateralen Hörsituation der
Kopfschatteneffekt nicht nur für das akustisch hörende Ohr, sondern
auch für das CI-Ohr nachgewiesen werden. Weiters ermöglichte die
elektrische Stimulation kann durch das CI kann bei einigen Patienten
eine effektive Tinnitus-Unterdrückung. Zusammenfassung: Einseitig
ertaubte Patienten mit chronischem therapieresistenten Tinnitus
und/oder einer sensorineuralen Schwerhörigkeit am letzthörenden Ohr
sind nach unserer bisherigen Erkenntnis mögliche Kandidaten für eine
Cochlea Implantation.
6
Session 1: Präzisions-Radiotherapie
mittels Photonen I
01.2
State-of-the-Art Lecture: Bildgestützte und adaptive
Strahlentherapie - Aktueller Stand und neue Entwicklungen
J. Wilbert;
Universitätsklinikum Würzburg, Klinik und Poliklinik für Strahlentherapie,
Würzburg, Germany.
Einleitung: Die Strahlentherapie ist bereits seit langer Zeit eine
bildgestützte Therapie. Bereits Ende der 1950er-Jahre gab es Ansätze,
die Lagerungsgenauigkeit durch Bildgebung im Bestrahlungsraum zu
verbessern, in dem Röntgenröhren an Co-60-Bestrahlungsgeräte
montiert [1, 2] bzw. in Linearbeschleuniger integriert wurden [3]. Die
erste systematische Studie zur Verringerung der Lagerungsfehler wurde
von
Haus
et
al.
[4]
durchgeführt,
wobei
an
Co-60Bestrahlungseinrichtungen belichtete Röntgenfilme ausgewertet wurden.
Von Leong et al. [5] wurde ein System entwickelt, welches die schnelle
online Erfassung von Portal-Aufnahmen während der Therapie
ermöglichte. Dieses System benutzte einen fluoreszierenden Schirm und
eine Kamera zur Bilderfassung. Eine Weiterentwicklung dieser
Electronic Portal Imaging Devices (EPID) stellen die auf amorphem
Silizium basierenden Detektoren dar [6]. Durch Verwendung des
Therapiestrahls ist es somit möglich, die Lage des Isozentrums und der
Feldgrenzen relativ zu knöchernen Strukturen hinreichend genau zu
bestimmen. Allerdings ist der Tumor in vielen Fällen ein bewegliches
Objekt und eine Positionierung des Patienten alleine nach knöchernen
Strukturen eine Quelle für Fehler [7].
Eine Möglichkeit auf diese Unsicherheiten zu reagieren ist, die
Bestrahlungsfelder um sogenannte Sicherheitssäume zu erweitern um
eine ausreichende Erfassung des Tumors sicherzustellen. Damit wird
allerdings auch ein erhebliches Volumen gesunden Gewebes mit einer
hohen Strahlendosis belastet. Mit Hilfe der bildgestützten
Strahlentherapie (image guided radiation therapy IGRT) wird die exakte
und reproduzierbare Positionierung des Zielvolumens am Therapiegerät
ermöglicht. Diese gesteigerte Präzision erlaubt die Anwendung höherer
Dosen zur Verbesserung der Tumorkontrolle unter gleichzeitiger
Minimierung des Einflusses auf das Normalgewebe [8]. Die IGRT dient
allerdings nicht nur der Korrektur von Setup-Fehlern, sondern erlaubt
auch die Kontrolle von Organbewegung und die Erfassung von
Veränderungen des Tumors während der Therapie.
Techniken der IGRT: Für die IGRT steht mittlerweile eine Vielzahl von
Techniken zur Verfügung, die sich nach verschiedenen Gesichtspunkten
einteilen lassen [9]:
- planare oder volumenbasierte Bildgebung
- Verwendung von kV- oder MV-Strahlung sowie Ultraschall
- Systeme peripher im Bestrahlungsraum oder direkt am Beschleuniger
montiert
Jedes dieser Systeme besitzt spezielle Vor- und Nachteile. Planare
Systeme ermöglichen zunächst nur eine 2-dimensionale Erfassung der
Patientengeometrie. Durch Kombination mehrerer planarer Aufnahmen
ist aber eine räumliche Erfassung der Lage des Zielvolumens möglich.
Volumenbasierte Systeme weisen eine sehr gute räumliche Auflösung in
allen
drei
Dimensionen
auf.
Planare
Aufnahmen
mittels
Röntgenstrahlung bedeuten eine geringere Strahlenbelastung des
Patienten als bei vergleichbaren MV-Aufnahmen und weisen in der
Regel eine bessere Bildqualität auf. Bildgebung mit dem MVTherapiestrahl hat wiederum den Vorteil, dass Bildgebung und
Behandlung das gleiche Isozentrum aufweisen. Systeme, die
unabhängig vom Bestrahlungsgerät arbeiten, können möglicherweise
zur Echtzeit-Verfolgung des Zielgebietes verwendet werden und somit
die Berücksichtigung von Bewegungen während der Bestrahlung
ermöglichen.
Zudem können auch Systeme, die kein direktes Bild des Tumors liefern
zur IGRT herangezogen werden. Hierzu zählen Systeme, die mittels
Lokalisation implantierter elektromagnetischer Sender Informationen
über die Tumorposition liefern [10] oder Photonen emittierende Marker
verwenden [11]. Außerdem können Surrogate, etwa die Bewegung der
Patientenoberfläche oder der Atemluftstrom, verwendet werden.
Allerdings benötigen diese Verfahren ein Modell um aus dem Surrogat
die patienten-internen Bewegungen bzw. Veränderungen abzuleiten
[12]. Aktuell in der Entwicklung befinden sich Systeme, die MRBildgebung am Linearbeschleuniger integrieren und somit eine
hochpräzise real-time IGRT ermöglichen sollen [13].
Adaptionsstrategien: IGRT dient aktuell hauptsächlich dazu,
Lagerungsfehler des Patienten vor Beginn der Bestrahlung zu erkennen
und zu korrigieren und somit inter-fraktionelle Unsicherheiten der
Tumorposition zu minimieren. Wird die Bilderfassung während der
Bestrahlung fortgesetzt, lassen sich auch intra-fraktionelle Bewegungen
des Tumors ausgleichen. Klinisch bereits realisiert ist die Möglichkeit,
das Bestrahlungsgerät der Bewegung nachzuführen [14, 15]. Noch in
der Entwicklung befinden sich Systeme, die entweder das
Bestrahlungsfeld mittels eines dynamischen Multileafkollimators
anpassen [16, 17] oder den Patienten mittels eines robotischen
Bestrahlungstisches entgegen der Tumorbewegung verfahren [18, 19].
Zudem erlaubt die IGRT Veränderungen des Tumors zu erkennen und
liefert somit die Basis für eine Anpassung des Bestrahlungsplanes. Auch
hier sind verschiedene Vorgehensweisen möglich: Bestimmung einer
„Dose of the day“ mit Korrektur im weiteren Therapieverlauf, Anpassung
des Bestrahlungsplanes bei größeren Veränderungen oder eine tägliche
online Planadaption.
Anforderungen der IGRT: Die Einführung der IGRT stellt zusätzliche
Anforderungen, sowohl an die ärztlichen als auch die physikalischtechnischen Mitarbeiter. Notwendig ist die Festlegung von
Korrekturstrategien die beispielsweise die gewünschten Intervalle der
Bildgebung, Toleranzbereiche sowie Aktionsschwellen beinhalten.
Zudem sind zusätzliche Maßnahmen bei der Qualitätssicherung
erforderlich. Dabei ist zu berücksichtigen, dass die IGRT eine komplexe
Interaktion
verschiedener
Systeme
darstellt.
Qualitätssicherungsmaßnahmen müssen deshalb die gesamte Kette
beginnend mit der CT-Bildgebung, über die Bestrahlungsplanung, die
Bilderfassung und Positionierung am Bestrahlungsgerät sowie
schließlich die Bestrahlung selber erfassen [7, 20-22].
Literatur:
1. Holloway A.F. A localising device for a rotating cobalt therapy
unit. Br J Radiol 1958;31:227.
2. Johns H.E. et al. A precision cobalt 60 unit for fixed field and
rotation therapy. Am J Roentgenol Radium Ther Nucl Med
1959;81:4-12.
3. Weissbluth M et al. The Stanford medical linear accelerator.
Radiology 1959;72:242-53.
4. Haus A.G. et al. A technique for imaging patient treatment
area during a therapeutic radiation exposure. Radiology
1970;97:653-6.
5. Leong J. Use of digital fluoroscopy as an on-line verification
device in radiation therapy. Phys Med Biol 1986;31:985-92.
6. Herman M.G. et al. Clinical use of electronic portal imaging:
report of AAPM Radiation Therapy Committee Task Group 58.
Med Phys 2001;28:712-37.
7. Potters L. et al. American Society for Therapeutic Radiology
and Oncology (ASTRO) and American College of Radiology
(ACR) practice guidelines for image-guided radiation therapy
(IGRT). Int J Radiat Oncol Biol Phys. 2010 Feb 1;76(2):31925.
8. Alongi F. et al. Image-guided radiation therapy: a new era for
the radiation oncologist? Int J Clin Oncol. 2009 Dec;14(6):5689.
9. Verellen D. et al. A (short) history of image-guided
radiotherapy. Radiother Oncol. 2008 Jan;86(1):4-13.
10. Willoughby T.R. et al. Target localization and real-time
tracking using the Calypso 4D localization system in patients
with localized prostate cancer. Int J Radiat Oncol Biol Phys.
2006;65:528Y534.
11. Shchory T. et al. Tracking accuracy of a realtime fiducial
tracking system for patient positioning and monitoring in
radiation therapy. Int J Radiat Oncol Biol Phys. 2010;78:12271234.
12. Ruan D et al. Image-guided positioning and tracking. Cancer
J. 2011 May-Jun;17(3):155-8.
13. Lagendijk J.J. et al. MRI/linac integration. Radiother Oncol.
2008 Jan;86(1):25-9.
14. Adler Jr J.R. et al. Imageguided robotic radiosurgery.
Neurosurgery 44, 1299-1306 (1999); discussion 44, 13061397 (1999).
15. Schweikard A. et al. Robotic motion compensation for
respiratory movement during radiosurgery. Comput. Aided
Surg. 5, 263-277 (2000).
16. Keall P.J. et al. Motion adaptive x-ray therapy: A feasibility
study. Phys. Med. Biol. 46, 1-10 (2001).
17. Neicu T. et al. Synchronized moving aperture radiation therapy
(SMART): Average tumour trajectory for lung patients. Phys.
Med. Biol. 48, 587-598 (2003).
18. D’souza W.D. et al. Real-time intra-fractionmotion tracking
using the treatment couch: A feasibility study. Phys. Med. Biol.
50, 4021-4033 (2005)
19. Wilbert J. et al. Tumor tracking and motion compensation with
an adaptive tumor tracking system (ATTS): system description
and prototype testing. Med Phys. 2008 Sep; 35(9):3911-21.
20. Klein E. E. et al.: Task Group 142 report: quality assurance of
medical accelerators, Med Phys 36 (2009), no. 9, 4197-4212.
21. ACR, "Technical standard for medical physics performance
monitoring of image-guided external beam radiation therapy
(IGRT)," American College of Radiology, 2009, p. Res 5.
22. AAPM: The Role of In-Room kV X-Ray Imaging for Patient
Setup and Target Localization - Report Nr. 104, (2009).
01.3
The impact of advanced radiotherapy techniques on secondary
cancer probability and late effects in paediatric Hodgkin lymphoma
1,2
1
1
1
B. Knäusl , C. Lütgendorf-Caucig , J. Hopfgartner , K. Dieckmann , D.
1
Georg ;
1
2
Department of Radiotherapy, MUW, Vienna, Austria, Department of
Nuclear Medicine, MUW, Vienna, Austria.
Purpose: To explore the potential of advanced radiotherapy techniques
for the treatment of paediatric Hodgkin lymphoma (PHL) patients. More
specifically PET based PTV definition and intensity modulation was
investigated with respect to secondary cancer probability (SCP), normal
tissue sparing and late effects of radiotherapy.
Material and Methods: Treatment planning was performed for ten PHL
patients using the standard planning target volume PTV1 (modifiedinvolved-field technique) and an experimental PTV2 based on interim
PET positive lymph nodes. For both PTVs 1.5cm isotopic safety margins
were used, reduced to 0.8cm towards organs-at-risk (OARs). The
following treatment plans with a prescribed dose of 19.8Gy were created
for both PTVs using the TPS XiO 3.4 (CMS): opposing photon (2F),
intensity modulated photon (IMXT), single scanned proton (PS) and
intensity modulated scanned proton technique (IMPT). The results were
evaluated using dose volume histograms and indices assessing target
coverage and homogeneity. The main focus of the evaluation was turned
1
on the SCP calculated according to Dasu et al , the late morbidity and
long term effects.
3
Results: The size of PTV1 ranged from 429-2704m , PTV2 was on
average 71±31% smaller. The best conformity with about 0.85 was
reached using the IMPT technique and all treatment plans showed
comparable homogeneity. Using PTV2 instead of PTV1 reduced the
dose to OARs remarkable. Using protons improved the treatment plan
quality in means of normal tissue sparring and minimizing low dose
areas. Using PTV2, the SCP was not decreased for IMXT and IMPT, but
significantly by about 45% for 2F and PS. SCP was lowest for PS plans,
even by a factor of 3 comparing it with IMPT. PS wrt 2F resulted in a
significant reduction of the SCP by a factor of 3.5 for both PTVs
(figure1).
Increased breast cancer in children was reported for a volume receiving
2
more than 4Gy and this was reduced by 70% for the left and 40% for
the right breast using PTV2. The new target concept had the strongest
influence on the dose to the thyroid. Dmax and Dmean of the thyroid were
reduced significantly by 14Gy. Restrictive changes of the lung will not be
3
expected in this study as Dmean was always lower than 8Gy . The dose
to the heart was reduced by using PTV2 and protons by 50% and 30%,
respectively.
Secondary malignancies were mainly reported in volumes receiving less
4
than 6Gy (V6Gy) and this volume increased significantly by about 60%
using IMXT and decreased by about 40% using protons. Using PTV2
instead of PTV2 decreased V6Gy by about 60%. Regarding the bones,
growth arrest has not to be taken into account as the dose was never
higher than 20Gy and all included patients older than 6 years.
Conclusion: The dosimetric consequences of the modified target
volume hopefully motivate a revision of the current target concept. This
planning study suggested the protons, especially PS, to be the most
optimal treatment technique for PHL patients and showed the best result
concerning normal tissue sparing and SCP.
1
ActaOncol;44:339-47
2
Blood;106:3358-65
3
FrontRadiatTherOncol;55:1145-52
4
StrahlentherOnkol;184:289-95
Figure 1:
7
01.4
Korrelation von Veränderungen in Morphologie und
Dosisverteilung bei der Adaptive Radiotherapie im HNO-Bereich
1
1
2
2
2
1
P. Winkler , T. Konrad , G. Lodron , M. Uray , H. Mayer , G. Jakse , R.
1
1
Flitsch , K. S. Kapp ;
1
Universitätsklinik für Strahlentherapie-Radioonkologie, Medizinische
2
Universität Graz, Graz, Austria, Institut für Informations- und
Kommunikationstechnologien, JOANNEUM RESEARCH
Forschungsges. mbH, Graz, Austria.
Einleitung:
Morphologische
Veränderungen
während
einer
radioonkologischen Therapieserie verursachen Veränderungen in der
Dosisverteilung
gegenüber
dem
Zeitpunkt
der
initialen
Bestrahlungsplanung. Diese Veränderungen werden durch eine
Übertragung des ursprünglichen Bestrahlungsplans auf CT-Datensätze,
die zu einem späteren Zeitpunkt erfasst werden, quantifiziert. Dazu
werden die Konturen mittels elastischer Bildregistrierung auf den neuen
CT-Datensatz übertragen.
Die Morphologie des bestrahlten Volumens unterliegt im Laufe einer
Behandlungsserie einer Reihe von verändernden Einflüssen:
Schrumpfung oder Schwellung von Geweben, Verkrümmungen und
Torsionen aufgrund fehlerhafter Lagerung. Die Wahl der adäquaten
Korrekturmaßnahme in der adaptiven Radiotherapie (ART) setzt jedoch
Kenntnis über Art und Ausmaß dieser Fehlerquellen voraus.
Gegenstand dieser Untersuchung ist eine Machbarkeitsanalyse zur
Beantwortung der beiden Fragestellungen (1) in welchem Ausmaß sich
die Dosisverteilung an Zielvolumen und Risikoorganen ändert und (2) ob
statistische Parameter der Transformationsmatrizen eine Beurteilung der
Art der Deformation sowie eine prospektive Aussage über dosimetrische
Veränderungen zulassen.
Material und Methode: Eine Software zur elastischen Bildregistrierung
von CT-Daten im HNO Bereich wurde entwickelt. Diese ermöglicht die
Berechnung von Transformationsvektoren, welche die Translation und
Deformation des Gewebes zwischen den Datensätzen repräsentieren.
Zehn HNO-PatientInnen wurden während der laufenden IMRTBehandlungsserie (nach durchschnittlich 36 Gy) einer zusätzlichen
Planungs-CT unterzogen. Die beiden CT-Scans wurden jeweils elastisch
aufeinander registriert. Die gewonnenen Transformationsmatrizen
wurden einerseits zur Anpassung der Planungskonturen verwendet,
andererseits parametrisiert und statistisch ausgewertet. Nach
Übertragung des ursprünglichen Bestrahlungsplanes auf die Folge-CT
konnte die Korrelation morphologischer Veränderungen mit Änderungen
in der Dosisverteilung analysiert werden.
Für Zielvolumen (PTV) und Speicheldrüsen wurden die mittlere Dosis
sowie die Werte für D2% und D98% (Dosis an 2% bzw. 98% des
Volumens) ermittelt, für Rückenmark und Hirnstamm Maximaldosis und
D2%.
Zur Beurteilung morphologischer Veränderungen können in unserer
Software die Voxeldaten des Transformationsvektorfeldes mit optionaler
Bandpass-Filterung für die konturierten Volumen statistisch ausgewertet
werden. Als Parameter wurden hier Mittelwert und Standardabweichung
der Vektorlängen herangezogen.
Ergebnisse: Die relativen Volumenänderungen zum Zeitpunkt des
wiederholten CT-Scans betrugen im Mittel -5% (PTV) und -17%
(Speicheldrüsen), maximal -25% bzw. -35%.
Für die PTVs änderten sich sowohl mittlere Dosis als auch D98% nur in
geringem Maße (+1.2% bzw. -4.3%). Deutliche Erhöhungen von +14%
zeigten sich bei der Maximaldosis am Rückenmark, die mittlere Dosis an
den Speicheldrüsen veränderte sich um 6%.
In einer ersten Analyse zeigen die morphologischen Veränderungen,
repräsentiert
durch
mittlere
Vektorlängen
in
gefilterten
Transformationsvektorfeldern, eine Korrelation mit den beobachteten
dosimetrischen Veränderungen (Abbildung 1).
Diskussion: Mit der von uns implementierten Software ist es möglich,
morphologische Veränderungen während der Bestrahlungsserie zu
analysieren und Konturierungen elastisch auf einen aktuellen CTDatensatz zu registrieren.
Die untersuchte PatientInnengruppe zeigte zum Teil eine deutliche
Verkleinerung des Zielvolumens und der Speicheldrüsen (Abbildung 2).
Dies geht in vielen Fällen mit einer Verschlechterung der Dosisverteilung
gegenüber der geplanten Ausgangsverteilung einher. Das Ziel der
adaptiven Radiotherapie ist eine Anpassung der Bestrahlung und
Neuoptimierung des Dosisplanes auf Änderungen in Form und Lage des
bestrahlten Volumens. Zur gezielten Korrektur in Abhängigkeit vom
Wesen der morphologischen Veränderungen liefert die vorgestellte
Methode der Analyse gefilterter Transformationsmatrizen einen
vielversprechenden Ansatz.
8
01.5
Sensitivity comparison of IMRT and VMAT plans to motion in
patients with peripheral NSCLC
S. Lang, T. Streller, J. Hrbacek, S. Klöck;
University Hospital Zürich, Zürich, Switzerland.
Objective: The sensitivity of motion to VMAT and IMRT treatment plans
using flattened as well as flattening filter free (FFF) beams up to a dose
rate of 2400 MU/min was evaluated.
Materials & Methods: Two patients with stage I peripheral NSCLC were
subject to 4DCT based treatment planning in Eclipse treatment planning
system (Varian, version 8.9). For each patient six IMRT and six VMAT
plans were generated: For each technique two plans using 6MV FFF
beam with a maximum dose rate of 1400MU/min, two plans using 10 MV
FFF beam with maximum dose rate of 2400 MU/min and two plans using
a flattened 6MV beam with maximum dose rate 600 MU/min. One of the
plans delivered a dose of 10 Gy/fraction the other 2 Gy/fraction to the
PTV. VMAT planning was done using two coplanar arcs with a
separation in collimator angle of 45° and an avoidance sector for sparing
the contra-lateral lung. For IMRT 5 co-planar fields were used.
All plans were irradiated on the static as well as the moving delta4
(Scandidos) phantom. Sinusoidal movements were performed in
longitudinal direction with amplitudes of 0.5 cm, 1 cm and 2 cm and
velocities 3 s and 6 s per cycle. Plan robustness was quantified using
the change in gamma index (GI, DTA=3mm, DD=3%) compared to the
plan irradiated on the static phantom.
Results: Under static conditions all fields in all plans showed a GI above
98 % (mean 99.7 % (+/- 0.4 %). Movements with an amplitude of 0.5 cm
only slightly disturbed the dose distribution (97.4 % (+/- 2.6 %). No
differences in GI between flattened and FFF beams and IMRT and RA
technique were found. For IMRT plans using the high dose rate (2400
MU/min) in combination with a low dose per fraction, the time per field
decreased to 5.8 s (+/- 2.1 s). This lead to a decrease of the GI to 78 %
(+/- 11 %) (1 cm, 6s) and 56 % (+/- 30 %) (2 cm, 6s). For flattened
beams the decrease was less pronounced: 96 % (+/- 4 %) (1 cm, 6s)
and 84 % (+/- 10 %) (2 cm, 6s). For RA field the decrease in GI was not
different between plans using flattened and FFF beams. If plans were
irradiated on the phantom, moving with amplitude of 2 cm, a decrease in
dose to the ITV of up to 35 % was observed.
Conclusion: Sensitivity to motion of RA and IMRT plans is similar. FFF
beams with high dose rates should only be used if the treatment time per
field is long compared to the breathing cycle. Except for the case of a
very high dose rate (2400 MU/min) in combination with low dose per
fraction a movement of up to 1 cm still shows acceptable target
coverage.
Figure 1. Variations of the PTV Dmedian and coverage for HU adjustments
in lung cases.
01.6
Feasibility of CBCT-based dose calculation: comparison of three
HU adjustment techniques for adaptive treatment planning
T. Steininger, J. Hopfgartner, I. Fotina, D. Georg;
Medical University of Vienna / AKH Vienna / Department for
Radiotherapy, Vienna, Austria.
Introduction: CBCT images are widely used in IGART. However, grey
values on CBCT scans don’t represent Hounsfield Units (HU) and
cannot be used directly for dose calculation. The aim of this study was to
compare the accuracy of three different methods for HU adjustment for
dose calculation on CBCT.
Materials and Methods: CBCT images of 10 prostate, 10 lung and 10
head-and-neck (H&N) cases were acquired using the XVI Synergy
system. IMRT plans were created for prostate and H&N cases while a
conformal technique was used for SBRT. Dose calculation was
performed with the MC-based algorithm using iPlan TPS. Structure sets
and plans were transferred from planning CT (pCT) to CBCT images and
dose was recalculated. For the first approach population-based
conversion curves (CCP) were applied to CBCT images. This method
was used as a reference together with pCT. In the second method,
called Water-Air-Bone (WAB), tumor and patient were assumed to be
water-equivalent; additionally the override of bony structures, air or lung
was performed with fixed HU. In the third approach (ROI) all structures
were overridden with the mean HU from pCT. The accuracy of dose
calculation was analyzed by DVH comparison and γ-evaluation.
Results: Compared to the CCP approach, median differences in PTV
Dmedian revealed overestimation by 2,3% and 1,9% for the WAB and ROI
adjustments, respectively. PTV coverage was slightly higher for both
techniques as well. Deviation in lung Dmax reached 1% for both
approaches, whereas differences in lung Dmean and Dmax for spinal cord
and esophagus were negligible. For prostate cases PTV coverage was
underestimated by 1,5% with the WAB approach compared to the CCP
method, whereas ROI mapping fitted well. Dmax and Dmean for rectum,
bladder and femoral heads showed differences below 2%. For H&N
cases the WAB method demonstrated better agreement with CCP
showing deviations for PTV Dmedian and coverage below 2%. Maximum
dose differences for spinal cord and brainstem were up to 1,7% and
1,3% for ROI and WAB techniques, respectively. Dmean for parotid gland
deviated by 0,5% for both adjustments. Results of the γ-evaluation are
presented in Table 1.
Benchmarking of all approaches to pCT revealed that the CCP
technique is very sensitive to the variations of grey values on CBCT as
shown on the Figure 1. Additionally high BMI for prostate patients,
altered image quality or cropped FOV were identified as parameters
mostly influencing the accuracy of CCP-based dose calculation.
Conclusion: ROI and WAB provide alternative approaches to the
conversion curves for CBCT dose calculation. Differences below 3% for
PTVs and OARs demonstrate reasonable accuracy of the dose
calculation together with required sensitivity to detect anatomy changes
in the IGART process. WAB is associated with smallest workload,
whereas ROI mapping requires knowledge of patient-specific
information. Therefore,WAB approach is promising and reliable method
for ART, if workload and dose accuracy are considered.
Table 1. Results of the gamma-evaluation for WAB and ROI adjustments
vs. CCP.
Lung SBRT
Prostate IMRT
WAB
ROI
WAB
ROI
WAB
H&N IMRT
ROI
Gamma max
1,76
1,63
2,09
1,65
1,92
1,98
Gamma mean
0,47
0,44
0,38
0,34
0,38
0,46
Gamma >1
6,1% 5,1%
4,5%
3,0%
5,1%
6,3%
01.7
Evaluation of IMRT and VMAT treatment plan quality delivered with
and without flattening filter using Pareto optimal fronts
1
1
2
1
W. Lechner , G. Kragl , E. Magalhaes , D. Georg ;
1
Medical University of Vienna, Department of Radiation Therapy,
2
Division Medical Radiation Physics, Wien, Austria, Instituto Politécnico
de Lisboa, Escola Superior de Tecnologia da Saúde, Lisboa, Portugal.
Purpose: The growing interest in operating medical linear accelerators
without flattening filter justifies the study of treatment plan quality of
intensity modulated radiotherapy (IMRT) and volumetric modulated arc
therapy (VMAT) delivered with (FF) and without flattening filters (FFF). A
treatment planning study based on the concept of Pareto optimal fronts,
which is considered to provide a more scientific approach, was
performed.
Methods: For this study, an early stage prostate cancer case with a
prescribed dose of 78Gy to the PTV was investigated. 9-field-IMRT and
360° single rotation VMAT plans delivered with and without flattening
filter were created using 10MV beams. Monaco (Elekta CMS, v. 2.04)
was used for treatment planning.
A set of clinically acceptable plans with similar dose volume histograms
(DVHs) was created for all modalities (initial plans). Starting from these
plans the constraint of the rectum cost function was reduced stepwise to
create a set of plans for each technique. The Pareto optimal fronts were
determined in a post process.
The volume of the PTV which received less than 95% of the prescribed
dose (100%-V95%) and the dose of the most exposed 10% of the rectum
(D10%) were chosen for the evaluation of the Pareto optimal fronts. The
near-maximum- (D2%), near-minimum- (D98%) and median- dose (D50%)
were reported for the PTV according to ICRU 83 recommendations.
Also, the number of monitor units (MUs) and segments (Seg) were
recorded. The treatment time (T) was evaluated by delivering the four
initial plans using an Elekta linear accelerator, modified for the
application of FFF beams.
Result: In total 191 plans were created. The Pareto optimal fronts
differed significantly for the IMRT- and VMAT- techniques. At 5% loss of
target coverage, the Pareto optimal fronts of IMRT and VMAT differed by
about 1.5Gy in favor for IMRT. Virtually no difference was observed
between FF and FFF (see Figure 1).
The lowest numbers of MUs were observed for IMRT-FF with a mean
value of 300MU. For VMAT-FFF the highest numbers of MUs were
observed (446MU). Compared to IMRT-FF the techniques IMRT-FFF,
VMAT-FF and VMAT-FFF are characterized by a higher near maximum
dose D2% (see Table 1).
9
The measured treatment time of the initial plans was about 8 minutes for
IMRT-FF. By the use of IMRT-FFF the treatment time was reduced by
25% for IMRT-FFF (about 6 minutes) and decreased even further for
both VMAT techniques.
Conclusion: The results show that it was possible to create similar
plans for both delivery- techniques (FF and FFF). For the evaluated
case, the Pareto fronts of IMRT were superior compared to VMAT.
Although the number of MU tends to be higher for IMRT-FFF, VMAT-FF
and VMAT-FFF, the use of these techniques lead to an increase of time
efficiency compared to IMRT-FF.
Table 1: Results of 191 plans presented as mean values ± 1SD
IMRT FF
IMRT FFF
VMAT FF
VMAT FFF
46
44
50
51
V95%(PTV) [Gy]
97.8 ± 2.2
97.9 ± 1.5
95.1 ± 2.5
95.6 ± 1.9
D10%(OAR) [Gy]
69.7 ± 2.3
70.0 ± 2.2
70.3 ± 2.4
70.6 ± 2.3
D2% (PTV) [Gy]
82.1 ± 0.1
82.9 ± 0.1
83.1 ± 0.1
83.2 ± 0.1
D98% (PTV) [Gy]
74.3 ± 1.2
74.1 ± 0.9
72.6 ± 1.0
72.7 ± 0.9
D50% (PTV) [Gy]
79.7 ± 0.2
79.9 ± 0.2
79.8 ± 0.5
79.9 ± 0.3
MU [MU]
300 ± 11
333 ± 9
420 ± 24
446 ± 19
Seg
56.5 ± 3.4
57.5 ± 3.4
96.0 ± 0.0
96.0 ± 0.0
Number of plans
Table 2: Treatment times of the four initial plans. *Plan was delivered on
a different LINAC.
IMRT FF
IMRT FFF
VMAT FF
VMAT FFF
T [min:sec]
08:01
05:59
2:20*
03:14
MU [MU]
283
321
395
435
Seg
50
53
91
91
Session 2: Präzisions-Radiotherapie
mittels Photonen II
02.1
Einfluss der Tumorbewegung auf die Dosisverteilung bei
stereotaktischer Bestrahlung am Linearbeschleuniger und
TomoTherapy HiArt System im Thorax-Bereich
T. Hauschild, C. Heine, S. Pönitz, T. Koch;
Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg
- MVZ am Bruderwald, Bamberg, Germany.
Einleitung: Die Behandlung beweglicher Tumore im Thorax-Bereich mit
stereotaktischen Bestrahlungstechniken führt zu einer Änderungen der
geplanten Dosisverteilung im Zielgebiet. Der Effekt der Tumorbewegung
bei der Dosisapplikation ohne Gating oder Tracking mit den
Bestrahlungstechniken am Linearbeschleuniger und TomoTherapy HiArt
System wurde an einem Phantom bestimmt und quantifiziert. Des
Weiteren wurde der Einfluss des Bewegungsmodells auf die
Dosisverteilung untersucht.
Material und Methode: Für die Messungen wurde ein modifiziertes
inhomogenes Thorax-Phantom der Firma CIRS verwendet. Der Tumor
wurde durch einen 3 cm langen zylinderförmigen Einsatz (Durchmesser
2,5 cm) aus Plastic Water nachgebildet und in einen Lungenlappen des
Phantoms positioniert. Die Tumornachbildung wurde in zwei HalbZylinder halbiert damit ein Gafchromic EBT2 Film zur Messung der
Dosisverteilung zwischen den Hälften in der koronaren Ebene eingelegt
werden konnte. Die Simulation der atemabhängigen Bewegung des
Tumors wurde mit einer dynamischen Plattform der Firma CIRS
realisiert. Die Atembewegungen wurden auf Basis der trigonometrischen
6
Grundfunktionen Sinus und cos für eine eindimensionale Auslenkung in
inferior-superior Richtung modelliert. Die Bewegungsamplituden
variierten von 0,5 cm bis 1,5 cm. Für die stereotaktische Bestrahlung
wurden Bestrahlungspläne nach definierten Protokollen erstellt. Die
Messungen wurden am TomoTherapy HiArt System und konventionellen
Linearbeschleuniger durchgeführt.
Ergebnisse: Die Messungen zeigten, dass für die Bestrahlungsplanung
einer SBRT der zeitlich mittlere Aufenthaltsort des Tumors bekannt sein
muss. Im Fall einer sinusförmigen Bewegung ist die Mittelposition der
6
mittlere Aufenthaltsort des Tumors und für eine cos -förmige Bewegung
wurde ein amplitudenabhängiger Versatz zur Mittelposition bestimmt.
Deshalb ist eine 4D-Planung obligatorisch für eine SBRT. Des Weiteren
konnte an Hand der Messungen gesehen werden, dass der Effekt der
Dosisverschmierung an den Profilflanken der Dosisverteilung bei der
Bestrahlung am TomoTherapy HiArt System nicht so deutlich
ausgeprägt ist wie im Vergleich zu den Messungen am
Linearbeschleuniger. Diese Beobachtung kann auf die helikale
Bestrahlungsform zurück zu führen sein.
Schlussfolgerungen: Tumorbewegungen bis zu 1 cm können bei einer
SBRT am TomoTherapy HiArt System toleriert werden. Der geringe
Verlust von Dosis an den Profilflanken könnte durch eine leichte
Erhöhung der verschriebenen Dosis kompensiert werden. Es sind keine
zusätzlichen Sicherheitssäume in Richtung der Bewegung des Tumors
notwendig. Für größere Bewegungsamplituden (>1,5 cm oder größer als
die
Hälfte
des
Tumordurchmessers)
ist
der
Effekt
der
Dosisverschmierung zu groß um diesen zu kompensieren. In solchen
Fällen sollten Bestrahlungsformen mit Gating, Tracking oder
verbesserter Immobilisation des Tumors verwendet werden.
02.2
Einflüsse intrafraktioneller Tumorbewegung auf die Dosisverteilung
bei TomoTherapy: Messungen mit einem 4D-Bewegungsphantom
1
2
1
1
C. Grohmann , R. Werner , T. Frenzel , F. Cremers ;
1
2
Universitätsklinikum Hamburg-Eppendorf, Hamburg, Germany, Institut
für Medizinische Informatik der Universität zu Lübeck, Lübeck, Germany.
Einleitung: Die moderne Strahlentherapie steht auch heute noch durch
inter- und intrafraktionelle Organbewegungen vor der Herausforderung,
dass dem Zielvolumen die geplante Dosis appliziert wird.
Interfraktionelle Bewegungen, wie Lagerungsungenauigkeiten oder
Tumorgrößenänderungen, können mit bildgeführten Verfahren (IGRT)
zwischen den Fraktionen berücksichtigt werden. Intrafraktionelle Effekte,
wie die Bewegung von Lungen- und Lebertumoren durch die Atmung
während
der
Bestrahlung,
können
durch
Studien
mit
Bewegungsphantomen erfasst und somit bei der weiteren Planung
berücksichtigt werden. Um einen Eindruck des Ausmaßes dieser Effekte
auf
die
Dosisverteilung
zu
bekommen,
wurde
ein
4DBewegungsphantom konstruiert. Mit diesem Phantom wurden reale
Patientenatemkurven simuliert. In den ersten Messungen mit diesem
Phantom wurden intrafraktionelle Bewegungen und ihre Einflüsse auf die
Dosisverteilung für Lungenpläne mit TomoTherapy untersucht.
10
Besonders der Einfluss der Bewegung auf die Dosishomogenität, die
Gradienten sowie die Dosisverschmierungen wurden untersucht.
Material und Methoden: Das 4D-Bewegungsphantom wurde gemäß
der Spezifikation des Autors von der Firma Euromechanics gefertigt.
Eine Plattform aus RW3-Kunststoff und Karbon kann beliebig in drei
Raumrichtungen bewegt werden und somit Atemtrajektorien von
Patienten simulieren. Der anterioposteriore (AP) Bewegungsspielraum
beträgt 4,5 cm; der laterale sowie der craniocaudale (CC) jeweils 5 cm.
Die maximale Geschwindigkeit, mit der sich das Phantom bewegen
kann, beträgt 10 m/s, die maximale Beschleunigung 10 m/s². Auf der
beweglichen Plattform kann das Würfelphantom „Easy Cube“ (Fa.
Euromechanics) befestigt werden; das Bewegungsphantom wird mit
seiner Grundplatte am Indexsystem des Beschleunigertisches befestigt.
Der „Easy Cube“ wird mit diversen Inhomogenitäten, Filmen und
Ionisationskammern bestückt. Das Bewegungsphantom kann bis zu 15
kg Last sicher (+/- 1 mm) bewegen. Mit radiochromen Filmen
(Gafchromic-EBT2) wird die Dosisverteilung des Zielgebietes (PTV)
innerhalb des Phantoms gemessen. Die Messungen ohne Bewegung
erfolgten als Referenz. Durch den Vergleich mit dem unbewegten
Referenzfilm werden die Bewegungseffekte evaluiert. Die Auswertung
erfolgte durch MATLAB-Routinen.
Ergebnisse: Die unbewegten Pläne lassen sich reproduzieren, größere
Abweichungen treten hier vor allem bei Gebieten mit steilen
Dosisgradienten auf, wobei das Zielgebiet (PTV) stets von der 95 %
Isodose umschlossen bleibt. Unter Phantombewegung kommt es
abhängig von der simulierten Atemtrajektorie zu einer Verbreiterung des
Halbschattens und einer geringeren Dosisabdeckung innerhalb der
Ränder des PTVs von teilweise >10 %. Diese Ergebnisse decken sich
weitgehend mit denen, die in unserem Hause bereits mit einem anderen
Bewegungsphantom (nur gekoppelte AP- und CC-Simulation) gemessen
worden sind. Auf dem Kongress werden Ergebnisse für verschiedene
Atemtrajektorien und TomoTherapy-Pläne präsentiert.
Diskussion: Die Verschmierung der Dosis ist neben Unterdosierungen
und
seichteren
Gradienten
nur
einer
von
verschiedenen
bewegungsinduzierten Effekten auf die Dosisverteilung. Durch
Bewegungsphantomstudien können diese Effekte gemessen werden um
sie bei der Bestrahlungsplanung zu berücksichtigen. Von daher sollte
das Ziel bei Bestrahlung von potentiell beweglichen Zielstrukturen sein,
die im Planungs-4D-CT beobachtete Bewegungstrajektorie mit einem
4D-Bewegungsphantom vor der Bestrahlung zu simulieren um
Rückschlüsse auf die Effekte auf die Dosisverteilung beim individuellen
Patienten ziehen zu können. Diese Erkenntnisse sollten dann in die
Wahl neuer Planparameter und Sicherheitssäume einfließen. Der
Einsatz und mögliche Benefit von TomoTherapy auch bei beweglichen
Zielstrukturen ist Gegenstand aktueller Forschungsvorhaben in unserem
Hause.
Planungssystem / ROKIS / PACS / Imaging- und Record&Verify-System
open-radART integriert worden.
Ergebnisse: Durch das hinterlegte Optimierungsprinzip entstehen trotz
der Einschränkung auf die tangentiale Feldanordnung automatisch
konvexe Isodosenlinien und DVHs, die mit alternativen IMRT-Plänen
konkurrieren. Die Technik wird seit April 2011 an der Universitätsklinik
für Radiotherapie und Radio-Onkologie routinemäßig angewandt. Da die
Lage des Isozentrums für den Optimierer irrelevant ist, können auch
saubere Feldanschlüsse in Halbfeld-Technik mit supraclaviculären /
axillären Feldern realisiert werden. Im Rahmen der IGRT können die
Feldaperturen (Segmente) basierend auf dem MV Portal Image adaptiert
werden, ohne dass Tischverschiebungen vonnöten sind.
Diskussion:´Die
zusätzliche
Verwendung
eines
optischen
Oberflächenscanners erlaubt auch eine atemphasenkorrelierte
Adaptierung für Gating-Anwendungen (deep inspiration breathhold).
MLC-Segmente können auch intra-fraktionell zur Korrektur von BaseLine-Shifts adaptiert werden.
02.4
Ein pragmatischer Ansatz zur erweiterten Flexmap-Kalibrierung
von bildgebenden Geräten am Linearbeschleuniger
1
1
2
2
P. Steininger , H. Weichenberger , J. Ematinger , K. Winklinger , F.
1,2
1,2
Sedlmayer , H. Deutschmann ;
1
Institute for Research And Development on Advanced Radiation
2
Technologies (radART), Salzburg, Austria, Universitätsklinik für
Radiotherapie und Radio-Onkologie, Salzburg, Austria.
Einleitung: Moderne Linearbeschleuniger (LINACs) verfügen über zwei
Bildgebungsgerätschaften: einen MV-Detektor zur Messung der
absorbierten Therapiedosis, und ein kV-Röntgensystem (C-Arm) zur
kontrastreicheren Darstellung der Patientenanatomie. Aufgrund der
Gravitation und von mechanischen Fertigungs-/Kalibrierungslimitationen
weichen deren Bewegungstrajektorien bezogen auf die LINAC-ArmBewegung meist von den nominellen ab. Dies wird als Flexmap
bezeichnet. Die tatsächliche Bildgebungsgeometrie ist für verschiedene
bildgestützte Patienten-/Organpositionierungsverfahren (Cone-BeamCT-Rekonstruktion, 2D/3D-Registrierung) essentiell, und ermöglicht
dadurch geringe Sicherheitsränder einhergehend mit verminderten
Nebenwirkungen. Genauer lassen sich die Flexmap-Abweichungen
einer Gerätschaft, bestehend aus punktförmiger Quelle und einem
zugehörigen Detektor, durch 9 Freiheitsgrade (TS,TO,TV) beschreiben
(Grafik-1).
02.3
IGRT beim Mamma Carcinom: optimaler Bestrahlungsplan und
tägliche Segmentadaptierung
1
1
2
2
H. K. Deutschmann , P. Steininger , P. Kopp , H. Schöller , C.
2
2
1
2
1
Gaisberger , F. Merz , M. Mooslechner , B. Mitterlechner , S. Huber , F.
1
Sedlmayer ;
1
radART - Institut für Technologieentwicklung in der Strahlentherapie,
2
Salzburg, Austria, Universitätsklinik für Radiotherapie und RadioOnkologie, Salzburg, Austria.
Einleitung: Bei der Bestrahlung von Brustkrebs werden mit großem
Erfolg seit vielen Jahren tangentiale Bestrahlungsfelder mit Keilen
eingesetzt. In neuerer Zeit wurden Methoden der intensitätsmodulierten
Radiotherapie (IMRT) - auch als Rotationsbestrahlung (VMAT) - dazu
verwendet, im Hochdosisbereich eine bessere Schonung der
betroffenen Lunge und ggf. des Herzens zu erreichen. Diese Verfahren
belasten allerdings größere Volumina mit kleineren Dosen, sind
aufwändig (in Planung, Verifikation und Bestrahlung) und erfordern bei
kleineren Sicherheitsrändern zudem genauere Lagerungen sowie
Atemüberwachungen.
Methoden: Es wird eine automatisierte Methode vorgestellt, die
innerhalb von Sekunden einen optimalen Bestrahlungsplan generiert,
der auf tägliche Veränderungen der Lage der Brust (SetupAbweichungen), auf Schwellungen, die im Verlauf der Bestrahlung
auftreten können sowie auf die Atemphase adaptiert. Das Verfahren
stellt eine Erweiterung der Boston-Technik (Tangente mit Feld-in-Feld
Bestrahlung) dar. Dabei werden zunächst von einem Algorithmus ideale
Kombinationen von Gantry- und ggf. Tischwinkeln errechnet und IMRT
Segmente erzeugt, deren Energie variiert (6/15 MV). Die Form der MLCSegmente (Fluenz) sowie die zugehörigen Monitoreinheiten ergeben
sich über Homogenitätskriterien für das Planungszielvolumen (95-107%,
besonderer Fokus auf den Dosisaufbau), aus der Analyse von
Projektionsbildern - quantitative DRRs in der Planungsphase, absolut
kalibrierte EPIs (MV Exit-Dosimetrie) in der Bestrahlungsphase. Die
Algorithmen zur automatischen Aufnahme und Segmentierung dieser
Bilder sind in Form von Plan-Template-Skripts in das bei uns entwickelte
11
In der Literatur werden verschiedene Verfahren für die (semi-)
automatisierte Flexmap-Kalibrierung bezogen auf ein statisches
Referenzkoordinatensystem vorgeschlagen. Die einfachsten Methoden
korrigieren lediglich zwei Freiheitsgrade (Verschiebung innerhalb der
nominellen Detektorebene), Verfahren zur Rekonstruktion mehrerer
Freiheitsgrade involvieren hochpräzise Phantome und komplexe
Algorithmen. Daher wird eine erweiterte kV-/MV-kompatible FlexmapKalibrierungsmethode vorgestellt, die hinsichtlich Kosten- und
Ressourceneffizienz mit einem Routinestrahlentherapiebetrieb vereinbar
ist.
Methodik: Voraussetzungen: Unsere Methode nutzt ein leicht
fertigbares, zylindrisches Plexiglas-Phantom, in das helikal angeordnet
Stahlkugeln eingebettet sind (Grafik-2).
Ergebnisse:
Auf
Basis
der
zu
erwartenden
3D-CTStahlkugelsegmentierungsfehler
(+/-0.5mm),
2D-CTStahlkugelsegmentierungsfehler
(+/-0.2mm)
und
PhantomPositionierungsfehler (+/-0.5mm, +/-0.2°) wurden im Zuge von
synthetischen Simulationen die pro Freiheitsgrad zu erwartenden
Standardabweichungen berechnet (Tabelle-1).
Grafik-4 zeigt die Auswertung einer kV-Messserie (ELEKTA-Synergy,
kV-Arm ist 90° zum LINAC-Arm versetzt) für die drei translationalen
Detektorfreiheitsgrade (TO) gemäß der vorgestellten Methode. Die Basis
für diese Auswertung stellten ein Phantom-CT (0.6x0.6x1.0mm) und kVBilder (0.4x0.4mm) dar.
Zusätzlich wird eine orthogonale Standard-CT-Aufnahme des Phantoms
benötigt. Die 3D-Positionen der Stahlkugeln im CT-Scan werden
automatisch mittels stahlkugelspezifischer Modelle segmentiert. Am
LINAC muss die physikalische Arm-Winkelposition mit der kV-/MVBildakquisitionssoftware wasserwaagebasiert synchronisiert werden.
Weiters ist das Raumlasersystem am LINAC auf das nichtenergieabhängige mechanische Isozentrum durch Standardverfahren zu
kalibrieren.
Flexmap-Messungen:
Das Flexmap-Phantom wird bezüglich der Referenzmarkierungen
(Grafik-2) am LINAC mit den Lasermarkierungen bestmöglich
ausgerichtet. Folgend werden zentrierte MV-/kV-Aufnahmen des
Phantoms akquiriert, alle 10° (LINAC-Arm) im Uhrzeigersinn und gegen
denselben um etwaige Hystereseeffekte zu erfassen.
Flexmap-Analyse:
In allen MV-/kV-Aufnahmen werden die Stahlkugelpositionen unter
Korrespondenzerhaltung
genau
mittels
konvolutionsbasierter
Segmentierung und Einbeziehung der energieabhängigen StahlAbsorptionskoeffizienten ermittelt. Auf Basis der vorhandenen
Korrespondenzen zwischen den 3D-Stahlkugelpositionen (CT) und den
2D-Stahlkugelpositionen (MV/kV-Bilder) kann eine überbestimmte
nichtlineare Sammlung von projektiven Assoziationen hergestellt werden
(Grafik-3).
Schlussfolgerungen:
Die
vorgestellte
MV/kV-FlexmapKalibrierungsmethode zeigt, dass die Detektorverschiebung orthogonal
zur Projektionsrichtung und die Rotation um dieselbige mit hoher
Genauigkeit rekonstruiert werden können. Weiters kann auch die
Skalierung (Quelle-Detektor-Abstand) suffizient abgeschätzt werden,
laserbasierte Messungen haben dies am LINAC bestätigt. Die restlichen
Freiheitsgrade müssen allerdings vorerst aufgrund hoher zu erwartender
Fehler ignoriert werden. Diese erfolgreich rekonstruierten FlexmapFreiheitsgrade tragen potentiell zur Verbesserung der Genauigkeit von
kV-/MV-Bild-basierten Rekonstruktionen in der Radiotherapie bei. Im
Moment werden ausführliche Mess-/Auswerteserien an unseren LINACs
durchgeführt, um in den nächsten Wochen die Reproduzierbarkeit der
Methode bewerten, weitere Verfeinerungen vornehmen, und
schlussendlich eine breitere Datenbasis (vor allem bezüglich aller 9
Freiheitsgrade) vorstellen zu können.
02.5
IGRT dose from different therapy and imaging modalities
1
1
2,1
R. A. Hälg , J. Besserer , U. Schneider ;
1
Radiotherapy Hirslanden AG, Institute for Radiotherapy, Aarau,
2
Switzerland, Vetsuisse Faculty, University of Zurich, Switzerland.
Die inhärenten 9 Freiheitsgrade können durch nichtlineare Regression
(Gauss-Newton) gelöst (optimiert) werden.
12
It is assumed that modern radiation treatment techniques such as
intensity-modulated radiotherapy (IMRT) and volumetric-modulated arc
therapy (VMAT) are increasing the cancer cure rates and simultaneously
reducing side effects. On the other hand, such dynamic treatment
techniques increase beam-on time compared to static conformal
treatment fields and the dose distribution is susceptible to shifts in
patient positioning and organ movements. Therefore, additional imaging
modalities are used to verify the position of the tumor and the organs at
risk, leading to image guided radiotherapy (IGRT). These additional
doses provoke concerns about radiation induced malignancies using
these techniques, in particular, for younger patients. The aim of this
study was to measure scatter and imaging doses for a radiotherapy
patient during typical treatments and to assess the amount of additional
dose through different gantry-mounted imaging techniques.
In order to evaluate the scatter and imaging dose for a patient, an
anthropomorphic
Alderson-Rando
phantom
was
used.
The
measurements were performed using TLD-100H detectors, placed inside
the phantom, facilitating the determination of a three dimensional dose
distribution and the evaluation of the doses to radiation sensitive organs.
The clinical setup was the curative irradiation of a rhabdomyosarcoma of
the prostate for an adolescent patient. The series of measurements
included photon irradiations delivered by a Varian CLINAC linear
accelerator and an OBI gantry-mounted imager and the treatment
techniques 3D-conformal, IMRT and VMAT and the imaging modalities
CBCT, kV and MV planar images.
The doses were determined in terms of absorbed dose at 184 positions
in the phantom. The measurements of therapy and imaging irradiations
were combined in different ways to calculate the total dose for every
measurement point for different treatment and imaging schemes. This
led to three dimensional dose distributions for selected complete courses
of treatment. The following figures show examples of the measured
doses along the medial patient axis, starting at 0 cm in the target and
going up to the head to 82.5 cm. In one figure, the different treatment
techniques are compared using a CBCT-only scheme. The mean dose
difference outside of the treatment field compared to the 3D-CRT 52 Gy
irradiation is +13 mGy for IMRT and -13 mGy for VMAT. The other figure
shows the additional dose for different imaging schemes for IMRT
relative to the therapy dose. The mean additional imaging dose for the
IMRT treatment outside the primary field is 8.49%, 0.06%, 1.98% and
1.68% for CBCT, kV-kV, kV-MV and MV scheme, respectively.
Eine Kenntnis der Dosisbeiträge von Nutzstrahlung und IGRT-Verfahren
in diesen Regionen ist daher wichtig zur Wertung möglicher Verfahren.
Material und Methode: Mit einem Alderson-Thorax-Phantom und
zusätzlichen Quaderformen wird ein menschlicher Rumpf simuliert (Abb.
1). Gemessen werden die Dosiswerte im Isozentrum (steht
stellvertretend bei den IGRT-Verfahren für Scanmitte bzw. Mitte des field
of view) im Mediastinum und an zwei Positionen (repräsentativ für
Linsen und Gonaden) in der gleichen Messebene kaudal des Thorax.
Bei den Messungen variiert der Abstand zwischen der
Isozentrumsposition und dieser Messebene zwischen 10 und 50 cm.
Untersuchte IGRT-Verfahren sind das MV-cone-beam (CB)-CT (Oncor;
Siemens); das ExacTrac-X-Ray-System (Brainlab); kV-CB-CT (Synergy,
Elekta) und ein fan-beam-CT (Somatom Sensation Open; Siemens).
Bezüglich der Bestrahlungstechniken, repräsentiert durch (meist) ein
Stehfeld (Beschleuniger Primus oder Oncor-160; Siemens), werden
Feldgröße und Energie variiert, sowie Keilfilter und ein tertiärer MultileafKollimator (MLC; M3; BrainLab) einbezogen. Die Feldgrößenvariation
beinhaltet auch unterschiedliche offene, nicht durch die jaws abgedeckte
Oberflächen des Beschleuniger-MLC bzw. des tertiären Kollimators bei
gleicher MLC-Feldgröße. Damit wird ein Einfluß dieser offenen MLCOberfläche auf die Messungen untersucht. Generell werden die
Messungen jeweils mit und ohne Streukörper (Thoraxphantom) im
bestrahlten bzw. gescannten oder exponierten Volumen durchgeführt.
Damit wird eine Separation der Dosiswerte außerhalb des bestrahlten
Volumens in einen Dosisbeitrag aus diesem Volumen (Volumendosis)
und in einen Dosisbeitrag aus der Strahlungsquelle (Quellendosis)
möglich.
Abb. 1: Ansicht des verwendeten Phantomaufbaus mit Darstellung der
Isozentrums- und der Mess-ebene
Isozentrumskreuze am Alderson-Thoraxphantom
Phantomplatten (2x, Kodak,
Messpunktebene
Polyäthylen)
Messpunkt
Linse
(RW-3)
Messpunkt
Gonaden
(Dosimeter
würfel)
Holzplatten
Isozentrumsebene
The combination of these measurements of scatter doses in therapy and
imaging doses on the same grid of measurement points, allows to
estimate and compare total doses for treatments with different usage of
the given therapy techniques and imaging modalities. This can be the
basis for risk estimations for radiation induced malignancies in terms of
the chosen modalities.
10000,000
02.6
Vergleich der Dosisbeiträge verschiedener IGRT-Verfahren und
Bestrahlungstechniken innerhalb und außerhalb des
Scanbereiches (bzw. field of view) oder des Nutzstrahles mittels
Phantommessungen
1,2
3
Zielstellung: Aktuell wird nicht nur der zusätzliche Dosiseintrag von
IGRT-Verfahren im bestrahlten Volumen, sondern auch der Dosisbeitrag
dieser Verfahren und der Bestrahlungsfelder außerhalb des bestrahlten
Volumens diskutiert. Diese Dosisbeiträge können sowohl stochastische
(Malignominduktion) als auch deterministische (z.B. gestörte
Spermiogenese, Sterilität, Blutbildung) Strahlenschäden verursachen.
X6/10x10 cm2/30grdKeil
X6/10x10 cm2
1000,000
X6/3x3 cm2/M3
X6/3x3 cm2
MV-CB-CT
100,000
fan-beam-CT
Dosis / mGy
1
P. Geyer , P. Sinha , H. Blank ;
1
Universitätsklinikum Carl Gustav Carus Dresden; Klinik und Poliklinik
2
für Strahlentherapie und Radio, Dresden, Germany, OncoRay,
3
Dresden, Germany, Strahlentherapiepraxis Jörg Distler, Bautzen und
Dresden, Germany.
Beinblöcke (2x, RW-3)
Ergebnisse: Die absoluten Dosisbeiträge der IGRT-Verfahren und der
Bestrahlungstechniken unterscheiden sich um Größenordnungen (Abb.
2). Die Verwendung zusätzlicher Streuquellen wie Keilfilter oder tertiärer
Kollimatoren erhöht die Dosis außerhalb des bestrahlten Volumens
deutlich mehr als die Anwendung von IGRT-Verfahren. Dieser geringere
Dosiseintrag der IGRT-Techniken beruht nur auf deren geringerer Dosis
im Isozentrum, die relative Dosis für alle Verfahren als Funktion des
Abstandes zum Isozentrum spiegelt diese Trennung in IGRT und
Bestrahlungstechniken nicht wider.
Die relativen Dosiskomponenten Volumendosis und Streudosis
unterscheiden sich für IGRT-Verfahren im kV-Bereich deutlich weniger
als für hochenergetische Photonenstrahlung des Beschleunigers. Bei
letzterer Strahlart fällt die Volumendosis mit dem Abstand zum
Isozentrum deutlich steiler ab als die Quellendosis (Abb. 3).
Abb. 2: Gonadendosis im Phantom für IGRT-Verfahren und
verschiedene Bestrahlungsfelder
ExacTrac-X-Rays (2 Images)
10,000
1,000
0,100
0,010
0,001
0,000
0
10
20
30
40
Isozentrumsabstand / cm
50
60
13
(letztere auf 2 Gy im Isozentrum normiert) in Abhängigkeit des
Isozentrumabstandes
Abb. 3: Dosiskomponenten für den Messpunkt „Gonaden“ für das fanbeam-CT und ein 62
MV-Photonenfeld mit M3 und Feldgröße 3 x 3 cm als Funktion des
Isozentrumsabstandes
1,0000
fan-beam-CT; Quellendosis
Dosis relativ zur Isozentrumsdos
fan-beam-CT;Volumendosis
0,1000
X6;M3;Quellendosis
X6;M3;Volumendosis
0,0100
0,0010
0,0001
0,0000
0
10
20
30
40
50
60
Abstand Isozentrum - Messebene / cm
02.7
Patientenpositionierung in der Stahlentherapie mittels 3D
Ultraschall
1
1
1
1
1
M. Kaar , R. Hoffmann , A. Bhatia , A. Bhatia , A. Lampret ,
1,2
J. Hummel ;
1
2
Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria.
Motivation: Die Positionierung von Tumoren, insbesondere im Bereich
von Weichteilen, ist ein bekanntes Problem, für das schon eine Reihe
von Lösungen existieren. Wir stellen einen neuen Ansatz vor, der durch
den Einsatz von Ultraschall (US) ohne zusätzliche Strahlenbelastung
auskommt
und
eine
Nachrüstung
von
bestehenden
Linearbeschleunigern ohne großen Aufwand möglich macht. Zum
Unterschied von bestehenden US-Systemen funktioniert unser
Positionierungssystem vollautomatisch.
Systemaufbau: Das vorgestellte System besteht aus einem optischen
Tracker mit zwei Sensoren, einem 3D Ultraschallgerät und einem
Rechner, der mit Software für Tracking und Registrierung ausgestattet
ist. Der Tracker misst laufend die Positionen und Lage eines
Referenzssensors und eines zweiten, starr am Ultraschallkopf
angebrachten Sensors.
Ablauf: Patienten werden zunächst einem CT-Scan unterzogen,
unmittelbar danach wird mit unserem System eine getrackte 3DUSAufnahme des zu bestrahlenden Bereiches gemacht. Je ein weiteres
US-Volumen dieses Bereichs wird unmittelbar vor jeder Teilbehandlung
auf der Couch des Linearbeschleunigers aufgenommen. Dieses wird mit
der ersten Aufnahme registriert. Unter Berücksichtigung der
Positionsdaten kann nun jene Bewegung errechnet werden, die das
Isozentrum aus dem Planungs-CT in das Isozentrum des
Linearbeschleunigers bringt. Die gesamte Transformationskette besteht
dabei aus sieben Transformationen, von denen vier aus Kalibrationen
mittels selbstentwickelter Phantome bestimmt werden, zwei weitere
Transformationen werden aus den Trackerdaten gewonnen und die
siebente aus einer 3D-3D Registrierung mittels selbstentwickelter
Software.
Registrierung: Die Registrierungssoftware kann eine Reihe von Filtern
mit verschiedenen Gewinnfunktionen kombinieren und den Verlauf der
Registrierung live anzeigen.
Derzeit stehen die Filter Minmax Curvature Flow, Discrete Gaussian
Blur, Gradient Anisotropic Diffusion, Curvature Anisotrop Diffusion,
Median in der Implementierung von ITK sowie ein selbstentwickelter
Importance Image Filter für das Preprocessing der US-Bilder zur
Verfügung.
Für den Optimierungsprozess wird ein mehrstufiger Algorithmus
eingesetzt, der bei niedrigen Auflösungen zunächst Näherungswerte
berechnet, und im weiteren Verlauf die Auflösung schrittweise erhöht.
Dadurch kann eine signifikante Steigerung der Robustheit und der
Performance erreicht werden. Es warden alle sechs Freiheitsgrade
optimiert (drei der Translation und drei der Rotation).
Als Bildmetriken stehen ‘Mutual Information’, ‘Mean Squares’,
‘Normalized Cross-Correlation’, ‘Mean Reciprocal Square Differences’,
‘Mattes Mutual Information’, und ‘Stochastic Rank Correlation’ zur
Verfügung.
Derzeitiger Stand: Das System wurde zunächst mit Phantomen
entwickelt und getestet. Dabei ergab sich eine durchschnittliche
14
Abweichung von 1,5 mm. Derzeit wird das System in einer
Patientenstudie erprobt. Wir untersuchen dabei auch, ob eine
patientenspezifsche Auswahl von Bildmetrik und Filtertyp, sowie eine
patientenspezifische Parametrisierung die Genauigkeit und/oder
Robustheit der Registrierung verbessern können.
Session 3: Information und
Bildverarbeitung
03.2
Superposition of virtual equipotential lines on medical images for
organ segmentation
J. Schnabel;
Institute of Biomedical Engineering, University of Oxford, Oxford, United
Kingdom.
In this talk I will present our recent research efforts and advances in the
field of lung cancer image analysis, as part of the CRUK/EPSRC Oxford
Cancer Imaging Centre, and the Biomedical Image Analysis (BioMedIA)
Laboratory at Oxford. I will focus on a number of novel non-rigid image
registration methodologies developed for respiratory motion correction in
lung imaging, which is a particularly challenging application due to the
combination of rigid structures, such as the ribs, and largely deformable
structures involved, such as the lungs and liver. We are currently
working on two major challenges in this field: 1. Correcting for the sliding
motion of the lungs, leading to locally discontinuous deformations, and 2.
Formulating computational tractable solutions to information-theoretic
measures of image alignment between computed tomography (CT) and
magnetic resonance (MR) image volumes.
Figure 2: Left: resulting equipotential line (red) of all virtual charges.
Right: resulting contour from the edge detection and the equipotential
line. In the brighter points, the detected edge and the equipotential line
are overlapping. It can be seen that the equipotential line does indeed
not trace the edges of the main vessels. Ideally, it should also cover all
points of the detected edge of the heart.
The edge detection and the fitting of the equipotential lines have been
realized and already combined as can be seen from the figures. The
next step is to find of the optimal distribution of the virtual electrical
charges and hence a closer adaptation of the equipotential line to the
extracted edges. This shall be done by an optimization algorithm that is
presently under development.
03.4
Navigationssystem für gastro-intestinale Endoskopie
1
03.3
Superposition of virtual equipotential lines on medical images for
organ segmentation
J. Becker, M. Fedrigo, O. Tischenko, C. Hoeschen;
Helmholtz Zentrum München, Neuherberg, Germany.
The recognition of human anatomy in a grey scale medical 3D image as
obtained e.g., by computed tomography, is a difficult process. This is
getting more important, since modern medical imaging techniques, e.g.
cancer treatment, are developing fast. The reason is that the steadily
increasing amount of image data can only be mastered with meaningful
effort if computer assisted methods can be employed that take the
patient’s anatomy into account. In contrast to existing image analysis
tools, the human eye can identify an organ in a slice of a 3D data set.
Depending on the training and knowledge of the person about human
anatomy and how to interpret medical images, organ borders may be
recognized even if these are hardly visible because of lacking contrast
between the grey values of organ and surrounding tissue, e.g. heart and
major blood vessels (see Fig. 1). Organs and tissues having similar
physical properties with respect to the medical imaging device (e.g.,
photon absorption in CT) are represented with similar grey values. It is
thus a great challenge for an automatic routine to identify the often
barely visible organ borders.
The authors would like to present a new approach for performing this
task and aiding the human observer.
The main idea is to transfer concepts from electro-techniques to medical
imaging. The problem of finding the organ border shall be realized by
combining an edge detection algorithm and the equipotential line
generated by virtual electric elementary charges. These are placed
within an area inside the organ to be segmented. Currently, this has to
be done manually. The spatially distributed charges provide a resulting
equipotential line and hence closed contour that can be used as a first “a
priori” guess of an organ border. Superimposed on the medical image,
this equipotential line provides the missing organ borders by tracing
those parts of the organ borders that have been found by edge
detection.
Figure 1: Transversal slice of a female thorax. Left: virtual electric
charges placed manually (green). Right: corresponding edge detection
image.
1
1
1
1
1,2
R. Hoffmann , M. Kaar , A. Bhatia , A. Bhatia , M. Figl , J. Hummel ;
1
2
Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria.
Einleitung:
Bei
einer
endoskopischen
Untersuchung
des
Gastrointestinaltrakts zur Abklärung bösartiger Veränderungen ist oft der
Einsatz zusätzlicher endoskopischer Ultraschallaufnahmen (US)
notwendig, damit auch Gewebsschichten biopsiert werden können, die
hinter der Darm- bzw. Magenwand liegen und so für die endoskopische
Videokamera nicht sichtbar sind. Da die Bildqualität dieser
Endosonoschallköpfe sehr schlecht ist, wäre es von beträchtlichem
Nutzen, die vom endoskopischen US (eUS) gezeigte Bildebene auch
zusätzlich aus einem zuvor angefertigtem hochauflösenden CT Volumen
heraus darstellen zu können. Die Entwicklung eines Verfahrens, welches
eine CT-Bildebene korrespondierend zu einem jeweiligen Ultraschallbild
erzeugt ist das Ziel unserer Forschung. Ein erster Ansatz, der auf einer
direkten Registrierung zwischen dem CT und dem Endoskop US
basierte, wurde auf Grund von nicht ausreichender Genauigkeit
verworfen. Unser neuer Systemansatz erfordert eine zusätzliche
transabdominale 3D US Aufnahme, die unmittelbar nach dem CT
ebendort akquiriert wird. Dadurch lässt sich die instabile, intermodale
3D3D US CT Registration durch eine intramodale US-US Registration
ersetzen, was sowohl Genauigkeit als auch Zuverlässigkeit steigert.
Methoden: Um die gesamte notwendige Transformationskette zu
berechnen sind insgesamt fünf Einzelschritte notwendig. Für die
Kalibration des CTs mit dem 3D Ultraschall wird ein optisches
Positionierungssystem (OPS) und ein einfaches Punktphantom
verwendet, das im wesentlichen aus fünf Bohrungen in einer PMMA
Platte besteht. Die CT-Koordinaten der Bohrungen können direkt am
CT-Volumsdatensdatz abgelesen werden, während die entsprechenden
Koordinaten bezüglich des OPS mittels einer Punktsonde bestimmt
werden. Der Referenzrahmen des OPS wird dazu fix an der CT-Gantry
befestigt. Ein weiterer optischer Sensor wird am Schallkopf des 3D US
Geräts
angebracht
und
mit
Hilfe
bekannter
Methoden
(‘Ultraschallkalibration’) kalibriert. Wird nun der Patient (bzw. das
Phantom) geschallt, erlauben die beschriebenen Kalibrationsschritte
eine Transformation beliebiger Punkte aus dem CT ins 3D US und
umgekehrt. Um die CT-Bildinformationen auch bei der endoskopischen
Untersuchung zu Verfügungen zu haben wird unmittelbar vor dieser ein
zweites 3D-US-Bild vom Patienten (bzw. Phantom) gemacht. Eine
intramodale 3D3D US-US Registration erlaubt nun eine Transformation
vom aktuellen (intervenionellen US) zum präinterventionellen CT. Als
Nächstes kalibiert man den eUS wird mit denselben Methoden wie den
3D US, nur dass zu diesem Zweck ein elektromagnetischer
Positionsgeber (EPS) zur Verwendung kommt. Als letzter Schritt müssen
die beiden Positionsgeber zueinander kalibriert werden. Dazu wird ein
optischer Sensor am Feldmitter des EPS befestigt. Das bereits zur CTKalibration verwendete Phantom kann mit den Punktsonden beider PS
angefahren und die fehlende Transformation durch eine Punkt-zu-PunktRegistration ermittelt werden. Nun können drei beliebige Punkte aus
dem eUS ins präinterventionlle CT-Volumen transformiert werden und
die dem eUS-Bild entsprechende Ebene kann aus dem CT berechnet
und dargestellt werden.
Resultate: Für die gesamt Transformationskette liegen noch keine
Ergebnisse vor. Die Einzelnen Registrations- bzw Kalibrationsschritte
wurden aber bereits ausgiebig getestet. Bezügliche der US-Kalibrationen
fanden wir einen Fehler von 1.0 mm (3D US) beziehungsweise 2.6 mm
(endoskopischer US). Die Punkt-zu-Punktregistrationen zeigten eine
15
Genauigkeit von 0.5 mm (CT-OPS) bzw. 0.8 mm (OPS-EPS). Der Fehler
bei der intramodalen 3D3D-Registration wurde mit ca. 2 mm bestimmt
(Checkerboardanalyse).
Daraus
lässt
sich
mit
Hilfe
des
Fehlerfortpflanzungsgesetzes ein Fehler für die gesamte Kette vom CT
in den endoskopischen US von ca. 3.6 mm erwarten.
03.5
First results of the validation of an ITK implementation of piecewise
non-rigid registration algorithm.
1
2
1
2
D. Fabri , V. Zambrano , W. Birkfellner , D. Georg ;
1
Center of Medical Physics and Biomedical Engineering, Medical
2
University of Vienna, Vienna, Austria, University Clinic of Radiotherapy,
Division of Medical Radiation Physics, Medical University of Vienna,
Vienna, Austria.
Introduction: Inter-fraction deformations are present in almost every
patient and area of treatment in radiotherapy. They are related to
anatomical changes in the patient, like change in weight, different
bladder filling, internal motion, tumor shrinkage, etc. Because of the
necessity of evaluating the total dose received by the different structures
it is important to incorporate this deformations in the moment of adding
the fraction doses.
The aim of this work is to evaluate in a simple way the performance of
the ITK implementation of piecewise non-rigid registration algorithm
developed in our department.
Materials and Methods: A deformable phantom was developed. A gray
box made of 4 rigid faces and 2 flexible faces was made, and filled in
with gelatin. Different layers of gelatin where added to be able to put in
10 mm Teflon spheres markers in between, 23 of them where placed in
the interior of the phantom.
Three series of CBCT images where taken of the phantom , the first data
set was acquired without
deforming the phantom. The other two series of images where acquired
with a small deformation
obtained by adding weight to the flexible faces of the gray box.
The total displacement of every marker was measured. Rigid
registration, b-spline deformable registration implemented in Slicer 3.3
and piecewise registration was preformed between the images. The new
position of the markers was measured after the registration.
Results: The average displacement of the markers after the first
deformation was 4.57 mm, being 0 mm a full recovery of the original
position after the registration the obtained results were: rigid registration
2.78 mm, b-spline registration 2.43 mm and for the piecewise
registration 1.40 mm.
For the second deformation the average displacement was 4.37 mm
after rigid registration 1.80 mm, b-spline registration 1.85 mm and after
piecewise registration 0.76 mm.
Conclusion and Future work: The piecewise registration is a clear
improvement from the simple rigid or b-splin registration. In the case of
the second deformation where the displacements are smaller, already
the rigid registration is almost recovering the original positions of the
markers. It is necessary to evaluate the performance of the algorithm in
a more elaborated way where the behavior of the anatomical structures
are emulated in a better way and bigger deformations are obtained and
compare the performance with algorithms like Demons and Morphons.
03.6
Real-time 2D/3D registration for tumor motion tracking during
radiotherapy
1
1
1
1
1
1
H. Furtado , C. Gendrin , C. Weber , C. Bloch , M. Figl , S. A. Pawiro ,
1
2
2
1
H. Bergmann , M. Stock , D. Georg , W. Birkfellner ;
1
Center of Medical Physics and Biomedical Engineering, Medical
2
University of Vienna, Vienna, Austria, University Clinic of Radiotherapy,
Division of Medical Radiation Physics, Medical University of Vienna,
Vienna, Austria.
Objectives: Intra-fractional movement during radiotherapy is one of the
main sources of uncertainty in dose application. Periodic movements,
correlated with the breathing or cardiac cycle and other aperiodic
movements, create the need to extend the margins of the planned target
volume (PTV) in order to make sure the full tumor volume is correctly
irradiated. This results in patients getting higher doses than they actually
need.
The aim of our work is to investigate the feasibility of continuous tumor
motion tracking using intensity based image registration techniques.
Taking advantage of modern devices where x-ray images can be
acquired during treatment, we aim at providing registration with a
sufficient update-rate to be able to follow tumor motion in real-time thus
enabling further reduction of the PTV with the consequent reduction of
total dose delivery to the patient.
16
Materials and Methods: We use an intensity-based technique for the
2D/3D registration therefore, requiring no markers or fiducials. X-ray
images, acquired during treatment, are compared to digitally rendered
radiographs (DRRs) generated from the planning volume dataset. An
optimizer searches for the spatial transformation which generates the
best match between the DRR and the x-ray. The two images are
compared using normalized mutual information [1] as merit function
which was shown to be the best compromise between speed and
accuracy when using images of this kind [2][3]. The DRRs are generated
using a ray casting algorithm which is implemented on a general
purpose graphics processing unit (GPGPU) and programmed in CUDA
for best performance. The registration is done on a region of interest
centered around the PTV as this is the region where we want to follow
movement. We validated our approach off-line using a phantom and
datasets from five clinical patients undergoing therapy in our center. In
all cases, a 3D dataset was acquired before treatment and a set
(between 105 and 150) of x-rays were acquired during treatment.
Results: The movement of the phantom is measured with an rms error
of 2.05mm in comparison with the known displacement (Fig. 2a). On the
patient datasets we measure a movement which clearly correlates with
the respiratory cycle (Fig. 2b) which was obtained by extracting the
diaphragm movement from the treatment x-rays. Mean registration time
is 220ms for the phantom dataset and 77.7ms for the patient datasets.
Conclusions: We implemented an image based markerless registration
framework, able to robustly follow tumor motion during radiotherapy
treatment with sufficient update-rate to process data in real-time. The
update-rate can be further increased by implementing other components
of the registration scheme - such as the merit function - in the GPGPU.
[1] Maes F, et al. Multimodality image registration by maximization of
mutual information. IEEE Trans Med Imag 1997;2:187-98.
[2] Pawiro S A, et al. Validation for 2D/3D registration I: A new gold
standard data set, Med. Phys. 38, 1481(2011)
[3] Gendrin C, et al. Validation for 2D/3D registration II: The comparison
of intensity- and gradient-based merit functions using a new gold
standard data set, Med. Phys. 38, 1491(2011)
Fig.2:
03.7
GPU-beschleunigte Mehrweg-2D/3D-Registrierung und
Automaskierung zur interfraktionellen Patientenpositionierung:
erste klinische Ergebnisse am Beispiel des Beckens
1
1
1,2
1,2
P. Steininger , M. Neuner , H. Deutschmann , F. Sedlmayer ;
1
Institute for Research and Development on Advanced Radiation
2
Technologies (radART), Salzburg, Austria, Universitätsklinik für
Radiotherapie und Radio-Onkologie, Salzburg, Austria.
Einleitung: Die tägliche, bildgestützte Patientenpositionierung in der
Radiotherapie
rechtfertigt
die
Verringerung
von
Bestrahlungssicherheitsrändern und reduziert die Wahrscheinlichkeit für
Komplikationen im Normalgewebe (NTCP). Gleichzeitig wird die
Tumorkontrolle (TCP) potentiell erhöht, wenn höhere Dosen appliziert
werden.
Zur Bestimmung der tatsächlichen Lage des Bestrahlungszielgebiets vor
jeder Therapiefraktion können direkt am Linearbeschleuniger akquirierte
kV-Röntgenbilder verwendet werden. Im Vergleich zu volumetrischen
Bildgebungsverfahren
(Cone-Beam-CT)
bestechen
projektive
Bildmodalitäten
durch
Aufnahmegeschwindigkeit
und
niedrige
Zusatzstrahlenbelastung für den Patienten.
Die geometrische Ausrichtung (Bildregistrierung) der akquirierten 2DBilddaten auf die geplante Bestrahlungsgeometrie, repräsentiert durch
das Planungs-CT, kann manuell oder automatisch erfolgen. Manuelle
Registrierungsansätze, etwa die Projektion prominenter Merkmale von
im CT segmentierten 3D-Strukturen auf kalibrierte 2D-Aufnahmen und
die
darauf
basierende
Anwendung
von
korrigierenden
Tischverschiebungen, weisen fallweise inakzeptable InterobserverVariabilität auf. Zur Steigerung der Registrierungsobjektivität werden ein
vollautomatischer Ansatz zur 2D/3D-Registrierung von ein oder
mehreren 2D-Röntgenbildern zu einem Referenz-3D-CT und zugehörige
erste
Ergebnisse
auf
klinischen
Radiotherapiedatensätzen
(Beckenbereich) vorgestellt.
Methodik: Die Registrierung von N 2D-Bildern XR,i,i=1..N zu einem 3DT
Volumen XM kann wie in Formel-1 definiert werden. Dabei sind Pi(XM )
digital rekonstruierte Röntgenbilder (DRRs) des mit der rigiden
Transformation T transformierten Volumens. Die Kostenfunktionen Fi(.,.)
berechnen das Ähnlichkeitsausmaß zwischen den DRRs und den
zugehörigen 2D-Röntgenbildern. Die Registrierung kann als
numerisches Optimierungsproblem Topt angesehen werden: die Summe
T
der Kostenfunktionen Fi(Pi(XM ),XR,i) wird iterativ über die
Transformationsparameter {t}j, die die Transformation Tj in der j-ten
Iteration instantiieren, minimiert. Dabei erlauben die Operatoren Oi eine
individuelle numerische Interpretation der einzelnen Referenzbilder i.
Generell
wird
die
Konvergenzgeschwindigkeit
und
die
Registrierungsgenauigkeit erhöht, wenn N>=2 gilt und die
Betrachtungsrichtungen adäquat gewählt werden.
Die beschriebene Methode wurde als Modul in die institutseigene CEzertifizierte R&V-Bestrahlungssoftware integriert (siehe Grafik-1). Die
DRR-Berechnung (ray-casting) wurde auf der Grafikkarte (GPU)
implementiert, um die Registrierungsgeschwindigkeit mittels der hohen
Anzahl an parallelen Recheneinheiten zu maximieren. Als
Kostenfunktionen wurden Gradient-Difference (GD), Normalized-CrossCorrelation (NCC), Normalized-Mutual-Information (NMI) und StochasticRank-Correlation (SRC), als numerisches Optimierungsverfahren
Downhill-Simplex (AMOEBA) implementiert.
Zusätzlich unterstützt das Modul die vollautomatische Erzeugung von
binären Maskenbildern Mi, die es ermöglichen bestimmte
Röntgenbildregionen (Lagerungshilfen, irrelevante Patientenanatomie)
von
der
Kostenfunktionsberechnung
auszuschließen.
Die
Automaskierung erfolgt durch skriptgesteuertes Vorverarbeiten, logische
Verknüpfung
und
Projektion
von
3D-Strukturen
der
Bestrahlungsplanung.
Ergebnisse: Um die Registrierungsleistung zu testen wurden 27
orthogonale Röntgenbildpaare (410x410mm, 1mm Auflösung, unsharpmasked) und die zugehörigen CT-Bilder (0.98x0.98x2.5mm,
Beckenregion) von 9 klinischen Radiotherapiepatienten herangezogen.
Die Automaskierung wurde so konfiguriert, dass das Becken, aber nicht
die Femora zur Kostenfunktionsberechnung beitragen. Die anfänglichen
Fehlpositionierungen bezogen auf das Zielgebiet (target-registrationerror,
TRE)
sind
in
Tabelle-1.a
gelistet.
Um
die
Registrierungsgenauigkeit infolge unterschiedlicher Kostenfunktionen zu
vergleichen, wurden die Registrierungen mit GD, NCC, NMI und SRC
(50% der Pixel) berechnet (siehe Tabelle-1.b). Die abgebildeten
Registrierungsfehler beziehen sich auf das Zielgebiet und einen manuell
determinierten (translationalen) Goldstandard.
Schlussfolgerungen:
Die
Ergebnisse
des
implementierten
Registrierungsansatzes über 108 Registrierungen zeigen, dass NCC,
NMI und SRC ähnlich genaue Registrierungsfehler aufweisen. In
Hinblick auf die Laufzeit, Genauigkeit und Robustheit scheint SRC einen
idealen Trade-Off darzustellen. Die SRC-Ergebnisse auf klinischen
Daten (mean-TRE 1.78mm+/-0.11mm, 0.9-Quantil 2.82mm, 7.85s
Registrierungszeit) sind mit anderen Publikationen auf Phantomdaten
vergleichbar. Insgesamt sind wir zuversichtlich, dass sich die schon jetzt
erfreulichen
Ergebnisse
durch
zusätzliche
algorithmische
Verfeinerungen weiter verbessern lassen.
17
Session 4: Instrumentierung und
Bildverarbeitung
04.1
Erzeugung tomographischer Bilder für die Lagerungsverifikation in
der Strahlentherapie mithilfe der Compressed Sensing Methode
S. Vaegler, A. Richter, O. A. Sauer;
Universität Würzburg, Klinik und Poliklinik für Strahlentherapie,
Würzburg, Germany.
Einleitung:
Für
die
Tumorbestrahlung
ist
eine
genaue
Patientenlagerung bei jeder Behandlungsfraktion zu gewährleisten.
Informationen für die Positionierung liefern Cone-Beam-CT-Bilder. Ziel
dieser Arbeit ist die Anzahl der Projektionen bei dem
Bildgebungsprozess zu verringern, ohne dabei den Informationsgehalt
für die Patientenlagerung durch Artefakte zu verringern. Dies ermöglicht
der Compressed Sensing (CS) Algorithmus, der insbesondere unter
Zuhilfenahme
eines
vorher
vollständig
aufgenommenen
Referenzdatensatzes, akkurate Rekonstruktion erzeugen kann. Dieses
Verfahren ist als Prior Image Constrained Compressed Sensing (PICCS,
[1]) bekannt. In einer Machbarkeitsstudie soll untersucht werden, in
wieweit die Anzahl der Projektionen verringert und dabei Datensätze mit
geringfügigen
Veränderungen
wie
Verschiebungen
bzw.
Größenänderungen
unter
Berücksichtigung
von
vollständig
aufgenommenen Datensätzen akkurat rekonstruiert werden können.
Material und Methoden: CS-Algorithmen minimieren in der Regel die l1Norm. In dieser Arbeit wurde zusätzlich die Erweiterung Non-convex
Prior Image Constrained Compressed Sensing [2] verwendet, bei dem
die Minimierung der lp-Norm erfolgt. Die lp-Norm ist wie folgt definiert:
Hierbei ist 0<p≤1. Damit ergibt sich folgendes Minimierungsproblem:
so dass MX=P. Ψ ist die diskrete Gradiententransformation, X das zu
rekonstruierende Bild, Xpk der vollständig aufgenommene Datensatz, α
ein Gewichtungsfaktor und p die gewählte Norm. Die Gleichung MX=P
ist die Datenkonsistenzbedingung, in der die aufgenommenen
Projektionen durch den Vektor P und die Form der Datenakquisition in
der Systemmatrix M ausgedrückt werden. Die Konsistenz der
vorhandenen Projektionen zu den rekonstruierten Bildern wird vor jedem
CS-Rekonstruktionsschritt mithilfe von Simultaneous Algebraic
Reconstruction Technique [3,4] gewährleistet.
Erste Simulationen wurden mit dem Shepp-Logan-Phantom der Größe
256x256 Pixel durchgeführt. Das vollständig bekannte Bild Xpk ist das
Standard Shepp-Logan-Phantom (Abb. 1a), wohingegen das zu
rekonstruierende Bild X ein modifiziertes Shepp-Logan-Phantom ist
(Abb. 1b). Die Rekonstruktionen wurden jeweils mit 15, 25 und 50
Projektionen des modifizierten Phantoms durchgeführt. Des Weiteren
erfolgte die Rekonstruktion eines Patientendatensatzes (Abb. 2a
entspricht Xpk, Abb. 2b zeigt das Kontroll-CT). Aus dem Kontroll-CTDatensatz wurden 50 Projektionen erzeugt mit denen die
Rekonstruktionen durchgeführt wurden.
Sämtliche Rekonstruktionen erfolgten mit den Parametern α={0,7; 0,9},
p={0,7; 1} und jeweils 500 Iterationsschritten.
Ergebnisse: In den Abbildungen 3 und 4 sind Beispiele der
Rekonstruktionsergebnisse und die jeweiligen Differenzbilder dargestellt.
In der Regel konnten die Strukturen in den meisten Fällen vollständig
und mit nur geringfügigen Abweichungen rekonstruiert werden. Zur
Verifikation wurde zusätzlich der mittlere quadratische Fehler berechnet
und über die Iterationsschritte dargestellt (Abb. 5). Die
Paramterkonfiguration α=0,7 und p=0,7 konnte grundsätzlich schneller
und ohne große Abweichungen das Ausgangsbild, von dem die
Projektionen aufgenommen worden sind, rekonstruieren.
Diskussion: Das hier untersuchte Verfahren konnte akkurate
Rekonstruktionen mit wenigen Projektionen erzeugen. In den nächsten
Schritten wird eine Optimierung des Algorithmus vorgenommen, um die
Rekonstruktionen zu beschleunigen. Das Verfahren soll sowohl bei kVals auch bei MV-Bilddaten zur Überprüfung der exakten
Patientenlagerung angewandt werden.
Literatur
[1] Chen G.-H et al. Prior Image Constrained Compressed Sensing
(PICCS). Proc Soc Photo Opt Instrum Eng. 2008
[2] Ramírez-Giraldo J.C. et al. Non-convex prior image constrained
compressed sensing (NC-PICCS): Theory and simulations. Med.Phys.
38(4), April 2011
[3] Kak A.C., Slaney M., Principles of computerized tomographic
imaging. IEEE Press, 1988
[4] Saxild-Hansen M., AIR Tools - A MATLAB Package for Algebraic
18
Iterative Reconstruction Techniques
04.2
Bestimmung der Kovarianzmatrix zur Messung des Rauschens in
Bildern eines klinisches CTs
1
2
1
1
C. C. Brunner , B. Renger , H. Schlattl , C. Hoeschen ;
1
2
Helmholtz Zentrum München, Neuherberg, Germany, Klinikum rechts
der Isar, München, Germany.
In
der
Computertomographie
wird
standardmäßig
die
Pixelstandardabweichung berechnet, um das Rauschen in den Bildern
zu bestimmen. Da Korrelationen im Rauschen damit aber nicht erfasst
werden können, wird stattdessen zunehmend das in der
Projektionsradiographie verwendete Rauschleistungsspektrum (NPS)
gemessen. Die NPS ist eine weithin verbreitete und akzeptierte
Methode, die ursprünglich für analoge Film-Folien-Systeme entwickelt
wurde. Die dabei gemachten Annahmen von Ortsunabhängigkeit und
Stationarität des Rauschens, werden für digitale Systeme nicht erfüllt.
Besonders
in
der
CT
ist
aufgrund
der
Struktur
des
Rekonstruktionsalgorithmus damit zu rechnen, dass die Verletzung
dieser Annahmen zu Fehlern in der Bestimmung des Rauschens führt.
Deshalb wurde für diese Arbeit ein bildraum-basierter Ansatz
angewendet, der die sogenannte Kovarianzmatrix benutzt, für die die
Kovarianz jedes Pixels mit jedem anderen Pixel berechnet wird. Eine
Eigenwertanalyse liefert die Eigenvektoren und die Eigenwerte der
Kovarianzmatrix. Wenn die Annahmen der Fouriertransformation erfüllt
wären, müssten die Eigenvektoren exponentielle Wellenfunktionen sein,
und die Eigenwerte müssten gleich den Werten der 2-dimensionalen
NPS sein. In dieser Arbeit wurde die Kovarianzmatrix erstmals für ein
klinisches CT bestimmt. Dazu wurden 200 Schichten des mit Wasser
gefüllten Bereichs eines Standard Phantoms aufgenommen und mit vier
verschiedenen Rekonstruktionsfiltern, von ganz weich (B10s) bis sehr
hart (B70s), rekonstruiert. Aus jeder Schicht wurde ein maximal großer,
quadratischer, homogener Bereich ausgeschnitten. Um die Zahl der
Bilder weiter zu erhöhen, wurde dieser Bereich in 32 x 32 Pixel große
Regions-of-interest (ROIs) zerlegt, die jeweils durch 8 Pixel voneinander
getrennt waren, um Korrelationen zwischen den ROIs zu vermeiden und
so unabhängige Datensätze zu erzeugen. Aus diesen ROIs wurde dann
die Kovarianzmatrix ebenso wie die NPS berechnet. Außerdem wurde
das ortsspezifische Rauschen untersucht, indem die Bilder in 9
quadratische Bereiche aufgeteilt wurden, von denen jeweils die
Kovarianzmatrix und die NPS berechnet wurden. Die Eigenwertanalyse
der Kovarianzmatrix ergab, dass sich die Eigenvektoren deutlich von
exponentiellen Wellenfunktionen unterschieden, was beweist, dass die
Annahmen der Fouriertransformation nicht erfüllt waren.
Die Eigenwerte der Kovarianzmatrix und die Werte der 2-dimensionalen
NPS wurden miteinander verglichen indem sie nach absteigender Größe
sortiert aufgetragen wurden. Die einzelnen Werte der Kurven wichen
teilweise deutlich voneinander ab. Die Integrale von Kurven des gleichen
-3
2
2
Filters unterschieden sich allerdings nur um weniger als 10 HU mm .
Die Integrale entsprechen der Varianz des Rauschens. Diese wurden
demnach von beiden Ansätzen gleich bestimmt.
Um die Struktur des Rauschens darzustellen, wurden die ersten
Eigenvektoren (also die Eigenvektoren die zum größten Eigenwert
gehören) jeweils an der Stelle des zugehörigen Bereichs aufgetragen.
Die Abbildung zeigt wie beim weichsten Filter B10s die Strukturen breit
und ohne Orientierung sind, während sie mit zunehmend hartem Filter
feiner werden und sich ein sternförmiges Muster immer deutlicher
abzeichnet. Der nächste Schritt wird die Untersuchung der Auflösung
eines klinischen CTs sein. Dafür soll die sogenannte H-Matrix des
bildraum-basierten
Ansatzes
mit
der
herkömmlichen
Modulationsübertragungsfunktion (MTF) verglichen werden. Zusammen
mit dem Rauschen ließe sich daraus das Signal-zu-Rausch Verhältnis
bestimmen, das einen Zusammenhang zur Detektierbarkeit eines
Signals herstellt.
Scatter and beam hardening correction for an µCBCT using Monte
Carlo
1
1
1
2
1
W. Volken , M. K. Fix , D. Frei , M. A. Zulliger , P. Manser ;
1
Division of Medical Radiation Physics, Inselspital – University of Bern,
2
Bern, Switzerland, SCANCO Medical AG, Brütisellen, Switzerland.
Introduction: Micro CBCT scanners have a broad spectrum of
applications, e.g. in medicine and material science. However, CBCT
suffers from scatter radiation and spectral effects such as beam
hardening (BH) which can be problematic in a quantitative analysis of
the reconstructed image. In this work, the Monte Carlo (MC) method was
applied to model the scanner in detail and to derive fundamental
quantities suitable for the development of accurate correction algorithms.
Method and Materials: In a first step, a model of the XtremeCT CBCT
scanner (SCANCO Medical AG) was simulated using the egsnrc/egs++
MC framework [1]. The quantity reconstructed by the XtremeCT is the
linear attenuation coefficient µ which is determined by ln(I0/I)/d, where I
and I0 are the detector responses measured with and without the
phantom of thickness d placed in the scanner, respectively. However,
the detector response is biased by scattered particles and the BH-effect.
In order to study the contributions from these effects to the quantity
ln(I0/I)/d, slab phantoms of different thicknesses (0.5 - 8 cm) and various
materials, such as water and mixtures of epoxy resin with hydroxyapatite
(HA) of different concentrations (100 - 1200 mg/cm3) were simulated.
The detector response I was decomposed according to: I = ID + IS. Here
ID denotes the detector response of particles without interaction in the
phantom (direct particles) and IS corresponds to particles scattered in
the phantom. ln(I0/I)/d can be evaluated for direct particles only which
corresponds to the attenuation coefficient µ determined by a scatter free
system. It is linked to ln(I0/I)/d measured by the scanner through: µ =
ln(I0/I)/d + STP/d, where STP = IS/ID is the scatter to primary ratio. After
reconstruction, a first set of µ values is available and can be mapped to
known materials. The scatter correction term STP/d can be
approximated by convolution of pre-calculated scatter kernels. A BHcorrection factor can be obtained by calculating the detector response
for each spectral component using the µ values of the mapped materials
for which the spectral dependency is well known.
Results: Figure 1 shows the attenuation coefficient calculated from the
detector response for direct and all particles of the HA200 slab phantom
(200 mg/cm3 HA). As can be seen, the scatter correction term STP/d
weakly depends on d. The magenta curve represents the linear
attenuation obtained by the scatter free system. The dashed line shows
the linear attenuation obtained analytically using spectral composition.
The agreement compared to the full MC simulation is better than 0.5%.
The BH-correction is obtained by the difference to a mono-energetic
reference value indicated by the black horizontal line and is of the same
order as the scatter correction.
Conclusion: The SCANCO Medical XtremeCT CBCT was successfully
implemented in the egsnrc/egs++ MC framework. Separation of direct
and scattered particles and spectral decomposition allows determining
basic quantities suitable for scatter- and BH-corrections. This work was
supported by the CTI and SCANCO Medical AG.
References:
[1] I. Kawrakow, egspp: the EGSnrc C++ class library, NRCC Report
PIRS-899, Ottawa, Canada 2005.
04.3
19
04.4
Automatische Detektion von Änderungen der Strahlreichweite bei
in-beam PET Daten
1
2
3
4
3,4
P. Kuess , W. Birkfellner , S. Helmbrecht , F. Fiedler , W. Enghardt ,
1
D. Georg ;
1
2
Department of Radiotherapy, MUW, Vienna, Austria, Department of
3
Biomedical Engineering and Physics, MUW, Vienna, Austria, OncoRay,
4
TU Dresden, Dresden, Germany, Helmholtz-Zentrum, DresdenRossendorf, Germany.
Hintergrund: In-beam Positron Emission Tomographie (PET) ist derzeit
die einzige Methode um die Strahlreichweite in der Hadronentherapie zu
verifizieren. Am Helmholtzzentrum für Schwerionenforschung (GSI)
wurden zwischen 1997 und 2008 Kohlenstoffbestrahlungen von mehr als
400 Patienten mit Tumoren im Kopf- Halsbereich unter Verwendung der
in-beam PET Installation am GSI überwacht. Da von der mittels PET
gemessenen Aktivität nicht direkt auf die applizierte Dosis geschlossen
werden kann, muss die gemessene PET Aufnahme mit einer Monte
Carlo (MC) Simulation, die aus dem Bestrahlungsplan errechnet wird,
verglichen werden. Somit kann überprüft werden, ob die Dosis
entsprechend dem Bestrahlungsplan deponiert wurde. Dieser Vergleich
von Simulation und PET-Aufnahme wird bis dato durch visuellen
Abgleich von einem Expertenteam durchgeführt. Diese Art der
Evaluation ist sowohl zeit- als auch ressourcenintensiv und abhängig
von der subjektiven Wahrnehmung des Begutachters. Für eine
ausgedehnte klinische Anwendung der in-beam PET Methode in einem
effizient funktionierenden Routinebetrieb ist eine automatisierte
Erkennung von Abweichungen von essentieller Bedeutung.
Material und Methoden: Acht in-beam PET Patientendatensätze vom
GSI wurden in dieser Studie berücksichtigt. In Anlehnung an die Arbeit
von Fiedler et al. (1) wurden simulierte Daten verwendet, bei welchen
die
Strahlreichweite
künstlich
verändert
wurde.
Die
Reichweitenänderung betrug 4mm, 6mm und 10mm in positive und
negative Richtung. Um MC-simulationsbedingte Schwankungen zu
berücksichtigen, wurden pro vorhandener Strahlreichweite jeweils 10
Simulationen für die Studie herangezogen. Somit ergibt sich eine Menge
von insgesamt 560 Datensätzen für welche Korrelationskoeffizienten
nach Pearson und Spearman berechnet wurden. Vorab wurde ein
Medianfilter auf die Bilder angewendet und der betrachtete
Informationsraum auf das planning target volume (PTV) beschränkt.
Somit konnten gemittelte ROC (Reciever Operating Characteristics) Kurven für jede Reichweitenänderung ermittelt werden. Die Signifikanz
der Unterschiede zwischen modifizierten und unmodifizierten Daten
wurde mittels statistischen Tests überprüft (Signifikanzlevel 0.05).
Ergebnisse: Die Korrelationskoeffizienten nach Pearson zeigten
signifikante Unterschiede für den Vergleich von unmodifizierten Daten zu
modifizierten -4mm, +/- 6mm und +/- 10mm Simulationen. Bei einer
Reichweitenänderung von +4mm sind 6/8 Datensätzen signifikant. Die
Auswertung der ROC Kurven in Abbildung 1 zeigte, dass bei simulierten
Daten für Reichweitenänderungen von +/-6mm und +/-10mm eine
Sensitivität und Spezifizität von 90-100% erreicht werden kann. Bei 4mm
Reichweitenänderung sinken die Werte für Sensitivität und Spezifizität
um 10-15%. Die Auswertungen wurden ebenfalls für den Spearman
Rangkorrelationskoeffizienten durchgeführt, womit idente Ergebnisse
erzielt werden konnten.
Diskussion: Die Verwendung von Korrelationskoeffizienten für den
Vergleich von in-beam PET Daten ist eine vielversprechende Methode
der Bildverarbeitung, deren Einsatz in Hadronenzentren auch einfach
umgesetzt werden kann. Die Anwendung dieser Methode auf
gemessene PET Daten ist Gegenstand der weiterführenden
Forschungsarbeit.
Literatur: 1 Fiedler et al Phys. Med. Biol. 2010 (55) 1989-1998
Keywords: in-beam PET, Bildverarbeitung, Hadronentherapie
20
04.5
Firstcheck - the first solution for technical quality assurance of
ultrasound imaging
S. K. Schuster, C. Kollmann;
Medizinische Universität Wien / Zentrum für Medizinische Physik und
Biomedizinische Technik, Wien, Austria.
Over time, the performance of ultrasound transducers can decrease
imperceptibly: there are not only physical damages, but rather insidious
degenerations of the quality of the ultrasound image. The result of these
changes or damages is that the transducers may be exchanged. A
previous study examined 676 ultrasonic probes from different
manufacturers in 32 hospitals and indicated that over 40% of the daily
used transducers exhibited an error. In general, these errors appear very
slowly within images and often won’t be recognized by the user. If these
low quality ultrasound images will be used for medical diagnosis, it will
be possible that there are misdiagnosis because of misinterpretation or
overlooked objects that won’t be displayed any more.
The Austrian Medical Chamber (ÖÄK) and the Austrian Society for
Ultrasound in Medicine (ÖGUM) try to assure the quality of the
ultrasound machine and its equipment with the help of technical
guidelines. For the first time, these guidelines were implemented in a
software called “Firstcheck”. One key issue of this project was the
evaluation of the procedures and to develop the software. At the
moment, “Firstcheck” is able to measure most of the procedures from
the suggested guidelines completely automated. The user can get firsthand information about the actual state of the ultrasound unit and will be
able to introduce effective attendances, which are reserved to
professional companies so far.
Apart from the ÖGUM, the Austrian Mammo-Screening Reference
Center for Technical Quality Control (RefZQS-Ö) has also decided to
use the software for quality assurance of the ultrasound units in the
context of the upcoming project “National breast cancer screening
programme 2012”.
04.6
Erste klinische Implementierung eines Gas Electron Multipliers
(GEM) Detektor an einem Linearbeschleuniger
1
2
1
1,2
S. Huber , B. Mitterlechner , M. Mooslechner , F. Sedlmayer , H.
1,2
Deutschmann ;
1
Institut für Technologieentwicklung in der Strahlentherapie radART der
2
Paracelsus Medizinischen Priv, Salzburg, Austria, Universitätsklinik für
Radiotherapie und Radio-Onkologie, Salzburg, Austria.
Einleitung: In der modernen Radiotherapie gewinnen electronic portal
imaging devices (EPID), welche sowohl für die MV sowie kV Bildgebung
eingesetzt werden, einen immer höheren Stellenwert. Während SolidState-Halbleiterdetektoren aus amorphem Silizium (aSi:H Panels) den
aktuellen Stand der Technik darstellen, wird bereits an alternativen,
vielversprechenden Technologien geforscht. Im Rahmen dieser Arbeit
wurde ein ortsaufgelöster Gas-Elektronen-Vervielfacher (GEM Detektor)
getestet, welcher erstmals an einem Linearbeschleuniger (Elekta Precise)
montiert wurde, um die klinische Alltagstauglichkeit zu evaluieren.
Methoden: In einem ersten Schritt wurde der Detektor in der bei uns
entwickelten Software open-radART vollständig eingebunden bevor der
Linearbeschleuniger (die Verkabelung des iView-GT-Armes) so umgebaut
werden sollte, dass beide Detektortypen - der aSi:H AL-5 (7, 9) von Perkin
Elmer (D) und der GEMiniED 2 von C-RAD (S) - je nach Bedarf am
Linearbeschleuniger verwendet werden können. Somit wurde eine
Testumgebung geschaffen, die vollständig der klinischen Realität
entspricht. Mit Hilfe unterschiedlicher Testszenarien wurde versucht, den
neuen Detektor in Bezug auf das Ansprechverhalten der Pixel zu
bewerten, sowie die Unterschiede zum aSi:H Detektor aufzuzeigen. Die
Beurteilung sollte nicht nur mit Hilfe von Phantommessungen erfolgen,
sondern auch unter Zuhilfenahme von klinischen Bildern. Der Fokus der
Untersuchungen sollte nicht nur auf die Bildqualität gelegt werden,
sondern auch auf die höhere Framerate des GEMs, die digitale
Quanteneffizienz
(DQE),
das
Rauschverhalten
(SNR),
Energieabhängigkeiten, die detektorspezifischen Artefakte, sowie auf die
mutmaßlich verbesserte Lebensdauer.
Ergebnis: Der Umbau des Linearbeschleunigers erfolgte ohne Probleme,
es ist nun möglich, je nach Bedarf entweder das GEM- oder das aSi:HPanel am Bestrahlungsgerät zu montieren. Verschiedene Algorithmen zur
Behebung von Artefakten und zur Kalibrierung des Panels wurden bereits
erfolgreich implementiert, sodass das Panel im Prototyp-Setting nun auch
für bestimmte Aufnahmen im klinischen Betrieb verwendet werden kann.
Die minimale Dosisauflösung im Isozentrum beträgt 0,003 cGy und ist
somit sehr ähnlich zu jener der aSi:H Detektoren.
Diskussion: Mit den bis dato zu Grunde liegenden Ergebnissen kann
gezeigt werden, dass dieser Detektortyp, nicht nur wegen seiner höheren
Framerate, eine vielversprechende Option darstellt. In einem nächsten
Schritt soll die Langzeitstabilität des
Detektors hinsichtlich
Strahlungsschäden und Lebensdauer genauer quantifiziert werden. Hierfür
sind jedoch noch einige Betriebsstunden des Detektors erforderlich.
04.7
Genauigkeit der Absolutdosimetrie mit Hilfe eines aSi:H
Festkörperdetektors
1
1,2
1,2
M. Mooslechner , F. Sedlmayer , H. Deutschmann ;
Institut für Technologieentwicklung in der Strahlentherapie radART der
Paracelsus Medizinischen Privatuniversität, Salzburg, Austria,
2
Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg,
Austria.
1
Einleitung: Festkörperdetektoren aus amorphem Silizium (aSi:H) werden
in der Radiotherapie zur MV-Bildgebung eingesetzt, um die geometrische
Verifikation der Behandlung zu unterstützen. Obwohl der Detektor
ursprünglich nicht für Dosismessungen entwickelt wurde, besteht die
Möglichkeit ausgehend von der Bildinformation auf die am Panel
ankommende Dosis zu schließen. Diese zusätzliche Funktionalität
ermöglicht die Verwendung des Detektors für absolutdosimetrische
Anwendungen,
wie
der
Verifikation von IMRT-Plänen,
der
Dosisrückprojektion und der Linac-Qualitätssicherung. Ziel dieser Arbeit
war es, die Genauigkeit der Dosismessungen mit Hilfe eines aSi:H
Detektors zu untersuchen.
Methoden: Die Analyse erfolgte anhand eines zwei Jahre alten Perkin
Elmer Detektors vom Typ RID 1680 AL5, welcher an einem Elekta
Synergy Linearbeschleuniger montiert ist. Zur Aufnahme der MV-Bilder
diente das bei uns entwickelte Record & Verify System open-radART.
Dieses stellt eine Reihe an Algorithmen zur Kalibrierung und
Bildqualitätsverbesserung von Flatpanels zur Verfügung, wobei für die
Absolutdosimetrie besonders die Multilevel- und Temperaturkorrektur
sowie die Ghost-Extraktion von Bedeutung sind. Zu Beginn der Analyse
erfolgte eine Multilevel Gain Kalibrierung des Detektors, indem für
steigende Dosisleistungen Flood-Field Bilder aufgenommen und als
Referenz abgespeichert werden. Die exakte (veränderliche) Dosisleistung
während dem Kalibrieren wird mit den Monitorkammern im Kopf des
Linearbeschleunigers gemessen und via iCOM-Vx Verbindung während
der Bildaufnahme übertragen, sodass kein zusätzliches Messgerät als
Referenz notwendig ist. Zusätzlich wurde eine Temperaturkalibrierung
durchgeführt, um das speziell bei älteren Panels über den Tag hinweg
veränderliche Temperaturverhalten zu korrigieren.
Für die Untersuchung der Genauigkeit der Dosisberechnung wurden MVBilder bei variabler Dosisleistung, MU und Feldgröße aufgenommen und
mit Ionisationskammer-Messungen verglichen. Die Messungen wurden
mehrmals wiederholt, um zusätzlich eine Aussage über die
Langzeitstabilität treffen zu können.
Ergebnisse: Aus den Analyseergebnissen geht hervor, dass mit den
beschriebenen Kalibrier- und Korrekturverfahren eine hohe Genauigkeit
erzielt werden kann. Die Flood-Field Aufnahmen weisen im Isozentrum
eine maximale Ungenauigkeit von 2,9% auf, wobei bei Messungen
zeitnahe zur Kalibrierung noch ein besseres Ergebnis erreicht werden
kann.
Diskussion: Es konnte gezeigt werden, dass sich aSi:H
Festkörperdetektoren zur Dosismessung mit hoher Genauigkeit eignen.
Wichtige Voraussetzung dabei sind allerdings fortgeschrittene Kalibrierund Korrekturmethoden, um das Ansprechverhalten bestmöglich
nachzubilden und nicht zusätzliche Fehler einzuführen. Darüber hinaus
sind für eine exakte Messung Temperatur- und Ghosting-Effekte unbedingt
zu berücksichtigen. Allerdings ist anzumerken, dass sich bei stark
beschädigten
Detektoren
die
Stabilität
verschlechtert
und
Messungenauigkeit zunehmen können. Trotzdem ist das Ergebnis
insgesamt positiv und stellt eine wichtige Grundlage für weiterführende
Anwendungen, wie der in-vivo Dosimetrie, dar.
Session 5: Strahlenschutz und
Qualitätssicherung
05.3
Konversionsfaktoren für die effektive Dosis bei pädiatrischen CTUntersuchungen mit Röhrenstrommodulation
H. Schlattl, M. Zankl, C. Hoeschen;
Helmholtz Zentrum München, Neuherberg, Germany.
Die
hervorragenden
diagnostischen
Möglichkeiten,
die
die
Computertomografie bietet, haben dazu geführt, dass diese
Bildgebungsmodalität auch in der Pädiatrie immer häufiger eingesetzt
wird. Obwohl deren Betrag zu den gesamten CT-Untersuchungen in
Deutschland 2006 nur 1% betrug, ist zu beachten, dass Kinder eine
erhöhte Strahlensensitivität aufweisen und ihr Lebenszeit-Risiko, nach
Strahlenexposition Krebs zu entwickeln, höher ist. Daher ist es wichtig,
möglichst genaue Dosis-Konversionsfaktoren zur Bestimmung der
Organ- oder Effektivdosen bei pädiatrischen CT-Untersuchungen zu
haben. Die bisher existierenden Programme zur Ermittlung von CTDosen basieren fast ausschließlich auf Simulationen bei einer festen
Röhrenspannung
und
ohne
Berücksichtigung
der
Röhrenstrommodulation. Letztere wurde ca. ab 2000 von den
Herstellern zur Reduzierung der Patientendosis eingeführt.
In dieser Arbeit werden Organdosiskonversionsfaktoren für CTUntersuchungen eines 8 Wochen alten Säuglings („Baby“) und zweier
Kinder von 7 („Child“) und 8 („Jo“) Jahren vorgestellt. Die verwendete
Scannergeometrie und Röhrenfilterung inklusive des Bowtie-Filters
entspricht denen eines Siemens Sensation Cardiac 16. Die Basis bilden
Simulationen axialer Schichtaufnahmen von 5 mm Höhe, die jeweils den
gesamten Körper abdecken. Durch geeignete Kombination der
Konversionsfaktoren
für
einzelne
Schichten
können
die
Konversionsfaktoren für jede beliebige CT-Aufnahme ermittelt werden.
Neben Aufnahmen mit konstantem Röhrenstrom wurden auch solche mit
schwächungsbasierter Röhrenstrom-Modulation simuliert. Dabei wurde
vorweg eine zusätzliche Simulation durchgeführt, die die Transmission
bestimmt. Der Röhrenstrom wird dann invers proportional der Wurzel der
Transmission moduliert. Während für Baby und Child nur Aufnahmen mit
einer Röhrenspannung von 120 kV simuliert wurden, wurden bei Jo auch
Simulationen
bei
80
und
140
kV
durchgeführt.
Alle
Dosiskonversionsfaktoren wurden auf CTDIvol normiert.
Tabelle 1: Effektive Dosis per CTDIvol in mSv/mGy für verschiedene CTUntersuchungen ohne und mit Röhrenstrommodulation.
Phantom/
Baby
Child
Jo
Aufnahmetyp
Röhrenstrommodulation
aus
an
aus
an
aus
an
Gehirn
0,108 0,113 0,053 0,055 0,050 0,053
Gesicht/Stirnhöhlen
0,19
0,19
0,13
0,12
0,14
0,14
Thorax
1,34
1,33
0,97
0,93
0.92
0,82
Unterleib/Becken
2,05
2,10
1,59
1,53
1,35
1,26
Lendenwirbelsäule
0,88
0,88
0,75
0,73
0,50
0,48
Bei den Rechnungen mit verschiedenen Röhrenspannungen hat sich
ergeben, dass die effektive Dosis pro CTDIvol für jede axiale Schicht
kaum von der Spannung abhängt. Die Unterschiede liegen im Mittel
unter 10%. Außerdem unterscheiden sich die Konversionsfaktoren für
CT-Aufnahmen mit und ohne Röhrenstrommodulation kaum (Tabelle 1).
Die größten Unterschiede wurden bei Jo festgestellt, wo die
Effektivdosis bei Thoraxaufnahmen mit Röhrenstrommodulation um ca.
10% niedriger ist als bei konstantem Röhrenstrom. Erhebliche
Unterschiede ergeben sich zum Teil beim Vergleich der
Konversionsfaktoren der verschiedenen Phantome. Wie zu erwarten ist,
sind die des Babys am höchsten, wobei auch zwischen Child und Jo bei
Aufnahmen der Lendenwirbelsäule ein Unterschied von ca. 50% in der
effektiven Dosis zu beobachten ist. Zusammenfassend lässt sich sagen,
dass sowohl Röhrenspannung als auch Röhrenstrommodulation bei
pädiatrischen
Phantomen
nur
geringen
Einfluss
auf
die
Dosiskonversionsfaktoren bezogen auf CTDIvol haben. Weitaus wichtiger
ist, wie zu erwarten, der Einfluss der Statur auf die
Dosiskonversionsfaktoren.
21
05.4
Wo kann man elektronische Personendosimeter (APD) einsetzen? Untersuchungen zum Verhalten von APD in röntgendiagnostischen
Strahlungsfeldern
1
1
2
3
4
M. Borowski , S. Wrede , H. Kreienfeld , H. Seifert , H. von Boetticher ,
5
2
3
B. Poppe , J. Feldmann , M. Luepke ;
1
2
Klinikum Braunschweig, Braunschweig, Germany, TÜV NORD Ensys
3
Hannover, Hannover, Germany, Stiftung Tierärztliche Hochschule
4
Hannover, Hannover, Germany, Klinikum Links der Weser, Bremen,
5
Germany, Pius Hospital Oldenburg, Oldenburg, Germany.
Zielstellung: Es ist bekannt, dass elektronische Personendosimeter
(APD) in Photonen-Strahlungsfeldern hoher Dosisleistung fehlerhaft
messen [1]. Entsprechende Felder können bei Röntgenanlagen
auftreten, die gepulste Strahlung erzeugen, was heutzutage für nahezu
alle Röntgenanlagen in der Human-, Zahn- und Veterinärmedizin zutrifft.
Das Wissen um die möglichen Probleme von APD führte dazu, dass das
Deutsche
Bundesministerium
für
Umwelt,
Naturschutz
und
Reaktorsicherheit den Einsatz von APD zur personendosimetrischen
Überwachung untersagt hat [2].
Dieses ist bedauerlich, da die meisten APD eine Reihe wertvoller, den
Strahlenschutz unterstützende Eigenschaften aufweisen, z.B. einen
Dosis- bzw. Dosisleistungsalarm oder eine Dosishistorie. Die
Untersagung der Nutzung von APD führt auch zu praktischen
Problemen. Stabdosimeter, die bislang alternativ als direkt ablesbare
Dosimeter verwendet werden, dürfen ab August 2011 gem. §45(16) RöV
nicht mehr eingesetzt werden. Ab diesem Zeitpunkt stehen somit für die
Röntgendiagnostik faktisch keine direkt ablesbaren Dosimeter mehr zur
Verfügung.
Neben dem Wissen um die potentiellen Probleme bei der Verwendung
von APD ist aus etlichen Studien aber auch bekannt [3], dass in den
Strahlungsfeldern, die an Arbeitsplätzen der täglichen Routine auftreten,
APD korrekt messen. Das Ziel der vorliegenden Studie ist daher, einen
Katalog von Untersuchungen und Arbeitsplätzen zu erarbeiten, bei
denen von einer korrekten Funktionsweise der APD ausgegangen
werden kann. Dieser Katalog würde dann den zuständigen Behörden als
Entscheidungshilfe über die Verwendbarkeit von APD dienen können.
Material und Methoden: Es wurde anhand bestehender Literatur
ausgewertet, in welchem Dosisleistungsbereich APD eine Dosis korrekt
messen. Für zwei in Deutschland häufig verwendete APD wurden die
Literaturdaten durch eigene Messungen verifiziert.
Es wurde eine Liste aller wesentlichen Untersuchungen und
Interventionen aus dem Bereich der Human-, Zahn- sowie
Veterinärmedizin erstellt (>250 Untersuchungsarten). Für sämtliche
Untersuchungen wurde rechnerisch eine konservative Abschätzung der
Dosisleistung am Ort möglichen Personals oder helfender Personen,
d.h. am Ort des APD, vorgenommen.
Die Dosisleistung am Ort eines APD resultiert aus der Dosisleistung im
Primärstrahl, dem Aufenthaltsort der Person sowie den verwendeten
Strahlenschutzmitteln. Als einziges Strahlenschutzmittel wurde
konservativ die Verwendung einer Strahlenschutzschürze angenommen.
Die Dosis im Primärstrahl wurde konservativ unter der Annahme
möglichst leistungsstarker Röntgenanlagen, sowie möglichst hoher
Dosisleistung bei der Untersuchung berechnet.
Die möglichen Aufenthaltsorte von Personen wurden für alle
Untersuchungen nach standardisiertem Schema erhoben.
Für die Untersuchungsarten, bei denen Personen hinter der
Strahlenschutzschürze mit einer Dosisleistung exponiert werden
könnten, die zu einer relevanten Fehlmessung führt, erfolgen
Testmessungen mit TLD-Referenzdosimetern.
Resultate: Die untersuchten APD messen im Dosisleistungsbereich bis
zu etwa 1,5 Sv/h ohne relevante Fehler.
An nahezu allen Orten, an denen sich Personen während
Untersuchungen oder Interventionen in der Human-, Zahn- oder
Veterinärmedizin aufhalten, sind die Dosisleistungswerte in einer Höhe,
die von APD ohne relevante Fehler erfasst werden können.
Schlussfolgerung: Es konnte gezeigt werden, dass die untersuchten
APD trotz der bekannten Limitationen in klinisch relevanten
Strahlungsfeldern korrekte Messwerte der Personendosis liefern. Vor
dem Hintergrund dieser Resultate sollte der Einsatz von APD in den
Bereichen zugelassen werden, in denen keine Fehlmessungen zu
erwarten sind.
Literatur:
[1] U. Ankerhold et al., Radiat. Prot. Dosim. 135, 149-153, 2009
[2] Bundesministeriums für Umwelt. Rundschreiben des BMU vom
06.10.2008
[3] M. Borowski et al., Fortsch. Röntgenstr. 182, 1-7, 2010
22
05.5
Häufigkeit von und Strahlenexposition durch nuklearmedizinische
Untersuchungen in Deutschland
1
1
2
1
3
3
M. Borowski , S. Wrede , A. Block , K. Prank , W. Pethke , D. Saure ;
1
2
Klinikum Braunschweig, Braunschweig, Germany, Klinikum Dortmund,
3
Dortmund, Germany, Ärztliche Stelle Niedersachsen / Bremen,
Hannover, Germany.
Zielstellung: Diagnostische Referenzwerte (DRW) dienen der
Optimierung
röntgendiagnostischer
sowie
nuklearmedizinischer
Untersuchungen. Für die Nuklearmedizin wurden sie in Deutschland
erstmalig in 2003 vom Bundesamt für Strahlenschutz (BfS) veröffentlicht.
Die DRW der Nuklearmedizin stellen, anders als im Röntgen, Richtwerte
dar, die für die im Zusammenhang mit einer Untersuchung zu
applizierende Aktivität gelten.
Die DRW sind regelmäßig zu überprüfen und bei Bedarf anzupassen.
Dabei sind sich ändernde Untersuchungshäufigkeiten in Deutschland zu
beachten. Zudem sind Änderungen in den verwendeten Aktivitäten, die
sich z.B. durch geänderte Techniken oder neuartige Radiopharmaka
ergeben, zu berücksichtigen.
Um einen aktuellen Stand der Häufigkeit unterschiedlicher
Untersuchungen sowie Informationen zur eingesetzten Aktivität zu
erhalten, wurde die vorliegende Studie durchgeführt.
Material und Methoden: Im Rahmen einer Multi-Center-Studie (23
Praxen, 25 Kliniken) wurden Daten zu sämtlichen in den Einrichtungen
durchgeführten nuklearmedizinischen Untersuchungen der Jahre 2007
und 2008 (insgesamt etwa 370.000 Untersuchungen) erhoben. Für jede
Untersuchung wurde ein festgelegter Datensatz erhoben, der
Informationen zum Patienten, zur Einrichtung, zum untersuchten
Organsystem sowie zu Art und Durchführung der Untersuchung enthält.
Die Daten wurden mit den Resultaten einer früheren Studie mit ähnlicher
Fragestellung [1] über den Zeitraum 1996-2000 verglichen.
Resultate: Die Zusammensetzung an durchgeführten Untersuchungen
hat sich im Vergleich zum Zeitraum 1996-2000 deutlich geändert. Die
relative Häufigkeit der Nieren- sowie Lungendiagnostik hat um mehr als
einen Faktor zwei abgenommen, Ganzkörper-PET sowie SentinelLymphknoten haben um mehr als einen Faktor 2,5 zugenommen.
Insbesondere im ambulanten Sektor ist eine Konzentration auf wenige
Untersuchungsarten zu beobachten (>80% Untersuchungen der
Schilddrüse, des Skeletts oder des Myokards).
Die im Zusammenhang mit einer Untersuchung applizierte Aktivität
weicht in vielen Einrichtungen noch fünf Jahre nach Veröffentlichung der
DRW
wesentlich
von
diesen
ab.
Während
für
Schilddrüsenuntersuchungen vielfach weniger als die dem DRW
entsprechende Aktivität appliziert wird, wird der DRW bei NierenUntersuchungen oftmals überschritten. Bei etlichen Untersuchungen
besteht ein Unterschied von mehr als einem Faktor 1,5 zwischen der
Einrichtung mit der geringsten und der mit der höchsten applizierten
Aktivität.
Die bezogen auf Untersuchungen an Erwachsenen applizierte, relative
Aktivität bei Untersuchungen an Kindern folgt im Mittel gut den Vorgaben
der European Association of Nuclear Medicine (EANM) [2], wobei sich
die in einzelnen Einrichtungen applizierte, relative Aktivität deutlich
unterscheidet.
Es ist anhand der Aufnahmeparameter zu erkennen, dass Unterschiede
in der applizierten Aktivität nicht durch geänderte Aufnahmeparameter
ausgeglichen werden.
Schlussfolgerung: Die Häufigkeit der angewandten Verfahren in der
nuklearmedizinischen Diagnostik hat sich in den zurückliegenden Jahren
deutlich geändert. Das Ausmaß der Änderung konnte quantifiziert
werden.
Auch fünf Jahre nach der Veröffentlichung der DRW in der
Nuklearmedizin werden in zahlreichen Einrichtungen noch deutlich
abweichende Aktivitäten verwendet. Je nach Untersuchungsart sind
systematische Abweichungen zu erkennen.
Es erscheint sinnvoll, auf Basis der vorliegenden Informationen die DRW
in der Nuklearmedizin zu überarbeiten. Dabei sollten die durch DRW
berücksichtigten
Untersuchungen
der
geänderten
Untersuchungsfrequenz angepasst werden. Zudem wäre zu überlegen,
ob DRW in der Nuklearmedizin nicht sinnvollerweise auch anders als als
Richtwerte festgelegt werden können.
Literatur:
[1] M. Hacker et al., Nuklearmedizin (2005) 44: 119-130
[2] M. Lassmann et. al., Eur J Nucl Med Mol Imaging (2007) 34:796-798
05.6
Möglichkeiten zur Dosisoptimierung in OP- als auch
Interventionsbereichen
1
2
A. Stemberger , W. Huber ;
Krankenanstalt Rudolfstiftung / Ärztliche Direktion / Stabsstelle
2
Medizinphysik, Wien, Austria, Krankenanstalt Rudolfstiftung / Zentrales
Röntgen Institut, Wien, Austria.
1
Einführung: Ziel dieser Arbeit war eine bestmögliche Umsetzung der
theoretischen Strahlenschutzgrundlagen, um beim Personal in
Operationsbereichen (inklusive Angiographie) eine bestmögliche
Dosisoptimierung zu erzielen. Die Forderung nach möglichst geringer
Strahlenbelastung ist in der Gesetzgebung verankert, sodass eine
praxisnahe Durchführung im Rahmen des Strahlenschutzes somit als
imperativ anzusehen ist.
Material und Methode: In einer ersten Phase wurden Messungen mit
Hilfe von elektronischen Personendosimetern (EPD) durchgeführt. Diese
bieten aufgrund der technischen Möglichkeiten eine Vielzahl von
Vorteilen gegenüber dem Einsatz der sonst üblichen Rumpfdosimeter,
wobei die Möglichkeit des direkten Ablesens der Dosis als auch
Eichfähigkeit hervorzuheben ist. Da diese Geräte allerdings als
Alarmdosimeter entwickelt wurden, haben sich nicht vorhersehbare
Probleme im Rahmen dieser speziellen Anwendung ergeben. Deshalb
wurden in einer zweiten Phase die Messungen im OP-Bereich
wiederholt, wobei statt der EPD ein System der Firma Philips in
Zusammenarbeit mit Unfors Instruments eingesetzt wurde. Dieses
DoseAware-System erlaubt ebenfalls eine zeitnahe Überwachung der
externen Strahlenexposition des Personals, des Weiteren sind
tätigkeitsbezogene Analysen in einer automatisierten Weise möglich.
Somit besteht ein zusätzliches Werkzeug zur Festlegung von
Maßnahmen zur Dosisreduktion, da der Strahlenschutzbeauftragte die
Arbeitsweise jedes Teammitarbeiters direkt während der Anwendung
ionisierender Strahlung überprüfen kann.
Die
Verwendung
der
Alarmdosimeter
EPD
hat
dem
Strahlenschutzbeauftragten die Möglichkeit geboten, die Mitarbeiter
beim umsichtigen Umgang mit ionisierender Strahlung zu unterstützen.
Auf diese Weise wurde erreicht, dass erstmalig (abgesehen von den
jährlich
stattfindenden
Strahlenschutzunterweisungen)
eine
Diskussionsbasis geschaffen wurde, in dessen Rahmen Dosisbegriffe
und -größen beispielhaft analysiert wurden. Problematisch ist in diesem
Zusammenhang zu erwähnen, dass bei Erreichen einer Grenzschwelle
Alarm ausgelöst wurde. Da dies bei jeder Verwendung der Röntgenröhre
geschah, hatte es eine unangenehme Beeinträchtigung des
Arbeitsprozesses zur Folge.
Beim DoseAware-System konnte hingegen gezeigt werden, dass bei
dessen Verwendung das OP-Personal verstärkt bewusstseinsbildend
geschult werden konnte, so dass die Grundlagen des Strahlenschutzes
(ALARA-Prinzip, 3-A-Regel) sehr gut in die Praxis umgesetzt wurden.
Dies wurde im speziellen durch einen anschaulichen Farbbalken
erreicht. Damit die Mitarbeiter nicht in Versuchung geraten, die
gemessenen Werte während der Untersuchung abzulesen und zu
interpretieren, wird eine logarithmische Skala verwendet. Detaillierte
Aussagen über die erhaltenen Strahlendosen können in einem
entsprechenden Untermenü angezeigt werden, sodass eine
anschließende Analyse vor Ort möglich wird. Zu diesem System wurde
eine entsprechende Software mitgeliefert, um mehrere Dosimeter in
einfacher Art und Weise zu verwalten. Des Weiteren ist es möglich, die
gesammelten Daten auch über längere Zeiträume für Schulungszwecke
zu speichern.
Ergebnis und Diskussion: Es konnte gezeigt werden, dass
elektronische Personendosimeter nur bedingt für Schulungszwecke im
Routinebetrieb verwendet werden können. Das DoseAware-System
hingegen erfüllt prinzipiell die Anforderungen, welche an einen
praxisnahen Strahlenschutz gestellt werden. Allerdings sollte die
Interpretation der Ergebnisse ein im Strahlenschutz ausgebildetes
Personal
übernehmen,
im
speziellen
Medizinphysiker
oder
Strahlenschutzbeauftragte. Dies wird vor allem mit der Tragweite dieser
hochkomplexen Thematik begründet. Die Dosisminimierung der
Patienten
hingegen
wird
vor
allem
durch
geräteund
untersuchungstechnische
Parameter
(u.a.
Feldgröße
und
Durchleuchtungsdauer) bestimmt, wobei auch hier ein hohes Potential
an Dosiseinsparung möglich ist. Abschließend ist zu erwähnen, dass ein
Bewusstsein für Strahlungsdosen bei Menschen, die in einer Umgebung
mit Röntgenstrahlen arbeiten, geschaffen werden muss.
05.7
Untersuchung zur Strahlenexposition der Bevölkerung durch
Patienten nach einer Radioiodtherapie
M. Andreeff, J. Claußnitzer, L. Oehme, R. Freudenberg, J. Kotzerke;
Uniklinikum der TU Dresden, Klinik für Nuklearmedizin, Dresden,
Germany.
Ziel/Aim: Bei der Anwendung von J-131 zur Behandlung von
Schilddrüsenerkrankungen kommt es nach der Entlassung der Patienten
von der Nuklearmedizinischen Station für die Angehörigen im
gemeinsamen Haushalt leben, zu geringen Strahlenbelastungen. Nach
der Strahlenschutzverordnung (StrlSchV: §46) darf eine Entlassung aus
der Therapiestation erst erfolgen, wenn sichergestellt ist, dass die
kumulative Strahlenexposition der Bevölkerung unter 1 mSv beträgt.
Dies wird mit abgeleiteten Grenzwerten und deren Messung realisiert.
So wird eine Entlassung erst möglich, wenn die Dosisleistung des
Patienten in 2m Abstand unter 3,5µSv/h (1) gemessen wird. Durch die
Untersuchung soll der Nachweis erbracht werden, dass die von der
medizinischen Anwendung offener radioaktiver Stoffe in der
Schilddrüsentherapie ausgehende Gefahr gering und im Vergleich zum
Nutzen zu akzeptieren ist.
Methodik/Methods: An 150 Patienten und deren im Haushalt lebenden
Angehörigen wurde die Strahlenexposition mittels amtlicher
Fingerringdosimeter in Kombination mit nicht amtlichen OSL- und TLDDosimetern ermittelt. Die Patienten und Angehörigen trugen amtliche
Fingerringdosimeter und spezielle OSL/TLD-Dosimeter in Kassetten die
sie unter dem Kopfkissen lagerten. Nach einer Expositionszeit von 14
Tagen (Integrationszeit T=0→∞) wurden die Dosimeter zur Auswertung
zurückgesandt. Die Messergebnisse wurden auf Plausibilität überprüft
und es erfolgte eine statistische Bewertung.
Ergebnisse/Results: In der Zeit von 03/2008 bis 06/2010 konnten 147
Patienten und ihre Angehörigen für die Untersuchung rekrutiert werden.
Der Anteil der auswertbaren Messergebnisse lag bei über 90%, was
eine Fehlerquote von unter 10% ergab. Die Fingerringdosis für die
Patienten betrug im Mittel (12,4 +/- 9,8) mSv. Die Messung im Umfeld
der Patienten ergab für das amtliche Fingerringdosimeter (0,68 +/- 0,54)
mSv und für die Kassette (0,65 +/- 0,49) mSv. In 24% der betrachteten
Fälle wurde der Grenzwert von 1mSv überschritten. Der gemessene
Maximalwert lag bei 3,05 mSv.
Schlussfolgerungen/Conclusions: Mit der Messung der abgeleiteten
Grenzwerte ist sichergestellt, dass keine Grenzwertüberschreitung nach
StrlSchV §46 auftreten kann. Bezogen auf die nuklearmedizinischen
Therapien in Deutschland führt die Radioiodtherapie zu keiner
nennenswerten Erhöhung der Kollektivdosis der Bevölkerung. Nach der
ICRP 103 wird ein Dosiswert von 5mSv/a für Einzelpersonen als
akzeptabel angesehen, der aber nicht erreicht wurde. Damit kann
gezeigt werden, dass die Reduktion der Aufenthaltszeit der Patienten
auf der Station nicht zu einer Erhöhung der Strahlenexposition von
Angehörigen im häuslichen Umfeld führt.
Literatur: (1) Richtlinie Strahlenschutz in der Medizin, BMU vom
24.06.2002, RSII4-11432/1
05.8
Strahlenschutz und Qualitätssicherung in der Strahlentherapie Quo Vadis?
U. Wolff;
AKH Wien, Univ. Klinik für Strahlentherapie, Abteilung für medizinische
Strahlenphysik, Wien, Austria.
Einleitung: Die Verknüpfung des Strahlenschutzes mit der
Qualitätssicherung ist in der Strahlentherapie besonders ausgeprägt.
Neben der Dosisvermeidung ist die Applikation präziser Dosen auf
definierte Zielgebiete das oberste Ziel der Strahlentherapie. Je
komplexer die Therapietechniken sind, umso aufwändiger werden auch
die
erforderlichen
geometrischen
und
dosimetrischen
Qualitätssicherungsmaßnahmen und damit auch der Aufwand an
Ressourcen jeder Art (z.B. Zeit, Personal, Materialien). Des Weiteren
steigt das Fehlerrisiko, sofern keine organisatorischen Abhilfen getroffen
werden. Material und Methode: In der MedStrSchV werden in den
Strahlenschutzgrundsätzen (vor allem der Rechtfertigung und der
Optimierung) allgemein Gegenüberstellungen von Nutzen (Ergebnissen)
und Risiken (Kosten) formuliert. Diese Evaluierung setzt aber voraus,
dass die komplette Therapie fehlerfrei abläuft, was in der Praxis nicht zu
100% gewährleistet werden kann. Erweitert man daher die NutzenRisiko Evaluierung um den Faktor Fehlerrisiko, speziell auch für
komplexere Therapieformen wie IMRT, Stereotaxie oder IGRT, dann ist
einer der Schlüssel zum Erfolg ein hochwertiges Qualitätsmanagement
(Im weiteren Sinne als Verschränkung aus Qualitätssicherung und
Strahlenschutz interpretierbar). In jedem Fall ist dies mit zusätzlich
erforderlichen Ressourcen (allem voran Personal) verbunden, damit eine
erfolgreiche Umsetzung erfolgen kann. Weil behördliche Auflagen, z.B.
zum Personalbedarf, oft auf Basis alter Evaluierungen (viele Jahre
23
zurückliegend) erstellt werden, ist die Verfügbarkeit der notwendigen
Ressourcen oft nicht sichergestellt. Aber nur, wenn die Erfordernisse
exakt und vollständig definiert werden, können realistische Beziehungen
zwischen dem zu erwartenden Nutzen, den damit verbundenen Risiken
und dem erforderlichen Aufwand aufgestellt und damit die Kosten einer
Therapie richtig abgeschätzt werden. Diskussion: Ziel des Vortrages ist
es, einen Denkanstoß für eine Diskussionsgrundlage zu geben, wie
möglicherweise in Zukunft eine erweiterte Nutzen- Risiko- Analyse
aufgestellt und umgesetzt werden könnte. Weiters ist auch,
vorausgesetzt die erforderlichen Ressourcen werden entsprechend
bereitgestellt, eine Weiterentwicklung von einem reaktiven auf ein
proaktives Fehlermanagementsystem möglich und sinnvoll.
Session 6:
Qualitätssicherungsaspekte bei
Spezialverfahren der Strahlentherapie
06.1
Qualitätssicherung für 4D-CT-Scanner
1
1
1
2
1
1
T. Frenzel , C. Grohmann , K. Ide , R. Werner , D. Albers , F. Cremers ;
1
UKE, Ambulanzzentrum der UKE GmbH, Bereich Strahlentherapie,
2
Hamburg, Germany, Universität zu Lübeck, Institut für Medizinische
Informatik, Lübeck, Germany.
Einleitung: Die Berücksichtigung von Organbewegungen während einer
Strahlenbehandlung stellt eine ganz besondere Herausforderung dar.
Durch die Verwendung möglichst kleiner individueller Sicherheitssäume
kann die Toxizität der Bestrahlung gesenkt und gegebenenfalls eine
Dosiseskalation erfolgen. Basis der 4D-Bestrahlungsplanung sind
zumeist
Datensätze
einer
4D-Röntgen-ComputertomographieUntersuchung (4D-CT). Ziel der aktuellen Untersuchungen ist es, ein
universelles Prüfphantom zu entwickeln, mit dem Organbewegungen
simuliert und die Bildberechnungsverfahren eines 4D-CT überprüft
werden können. In den ersten Experimenten wird untersucht, inwieweit
die simulierten Bewegungen mit Hilfe eines CT "eingefroren" und
Objekte artefaktfrei wiedergegeben werden können.
Materialien und Methoden: Basis des aktuellen Prüfphantoms ist ein
Phantom aus RW3-Material, welches kommerziell z.B. unter der
Bezeichnung „Easy Cube“ (Fa. Euromechanics) erhältlich ist.
(Abb. 1).
Dieses Würfel-Phantom kann im Inneren (16 cm x 16 cm x 16 cm) mit
beliebigen Materialen bestückt werden. Für die ersten Untersuchungen
wurde das Phantom mit RW3-Platten ausgefüllt. In der Mitte des
Phantoms wurden zusätzlich Stäbe mit unterschiedlich großen
kugelförmigen
Bohrungen
eingebracht
(z.B.
Simulation
von
Lungenrundherden).
Das Würfelphantom wurde fest mit einem Bewegungsphantom (Abb. 1)
verschraubt, welches eine präzise Bewegung des Würfels in allen drei
Raumrichtungen unabhängig voneinander ermöglicht. Die Steuerung der
Motoren des Phantoms erfolgt über einen Computer, so dass selbst
komplexe Bewegungsabläufe zuverlässig wiedergegeben werden
können. Andere Messungen mit diesem Phantom sollen in einem
weiteren Beitrag auf der DGMP-Tagung vorgestellt werden. Für die
Simulation der Organbewegung wurden die Trajektorien realer
Atembewegungen von Tumoren verwendet. Diese stammen aus der
Untersuchung von 4D-CT-Datensätzen, welche an Patienten gewonnen
worden sind.
Das bewegte Würfelphantom wurde zunächst ohne Atemtriggerung mit
einem Somatom Emotion Einzeilen-Spiral-CT vermessen (Abb. 2).
24
Teilvolumeneffekte beobachten, die durch Bewegungen noch aggraviert
werden können. Diskussion: 4D-CT-Scanner finden eine zunehmende
Verbreitung
im
Bereich
der
Strahlentherapie.
Je
nach
Rechenalgorithmus werden bewegte Objekte mehr oder weniger
artefaktfrei abgebildet. Bislang gab es nur die Möglichkeit, anhand von
Patientendaten visuell die Bildqualität zu beurteilen. Mit dem
beschrieben Phantom ist es nun möglich, die Abbildungstreue mit
Phantommessungen zu überprüfen und die klinisch eingesetzten
Scanprogramme zu optimieren. Weitere Messungen an einem 4D-CT
sin für die kommenden Monaten geplant.
06.2
Qualitätssicherung eines binären Multi-Lamellen-Kollimators mit
systemeigenen Detektoren für die helikale Tomotherapie
Es wurden hierfür unterschiedliche Scanprogramme aus dem klinischen
Routinebetrieb eingesetzt. Zur weiteren Analyse wurden die Bilddaten
an das Bestrahlungsplanungssystem CMS Focal transferiert. Bei der
Auswertung der CT-Schnittbilder und deren 3D-Rekonstruktionen kam
es darauf an, in wieweit die Kugel-Bohrungen artefaktfrei wiedergegeben
werden konnten.
Ergebnisse: Ohne Atemtriggerung werden die Kugel-Bohrungen des
bewegten Phantoms nur zum Teil artefaktfrei wiedergegeben. Bereits in
den Transversal-Schnittbildern fallen Bewegungsartefakte auf (Abb. 3):
Deformierung / Größenänderung, Verfälschung der Hounsfield-Werte.
Noch gravierender werden die Effekte, wenn die 3D-Rekonstruktionen
longitudinal (Abb. 4)
und vertikal (Abb. 5)
S. Lissner, K. Schubert, S. Klüter;
Radioonkologie und Strahlentherapie, Universitätsklinikum Heidelberg,
Heidelberg, Germany.
Vorhaben:
Die
helikale
Tomotherapie
ist
ein
Rotationsbestrahlungsverfahren. Während der kontinuierlichen Rotation
und dem simultanen Tischvorschub wird der Behandlungsstrahl mittels
eines binären Multi-Lamellen-Kollimators (MLC) fluenzmoduliert. Die
Lamellen werden mit Druckluft in weniger als 20 ms geöffnet oder
geschlossen. Für die bildgestützte Patientenlagerung wird ein
Detektorfeld
mit
738
Xenon-Detektoren
gegenüber
dem
Linearbeschleuniger mitrotiert. Die systemintegrierten Detektoren
können für eine von Tomotherapy Inc. entwickelte Qualitätssicherung
(TQA) genutzt werden. Der schnelle MLC ist unter anderem
Reibungseffekten und Effekten der luftdruckgesteuerten Bewegung
unterlegen. Das Detektorfeld wurde genutzt um den Einfluss dieser
Effekte auf den MLC zu untersuchen.
Material und Methoden: TQA analysiert definierte MLC-Öffnungen
hinsichtlich des Öffnungsintervalls und des Zeitpunktes der MLCÖffnung. Die TQA-Messungen werden in Heidelberg innerhalb des
täglichen Checks vor Behandlungsbeginn seit Februar 2011
durchgeführt. Für weitere Untersuchungen des Verhaltens des MLC
wurden TQA unabhängige Bestrahlungsprozeduren erstellt. Für die
Prozeduren wurden eigene Lamellen-Bewegungssequenzen generiert.
Mit den Sequenzen wurden Reibungsabhängigkeit der Lamellen und der
Einfluss vom Luftdruck zur Bewegung der Lamellen untersucht. Nach
Ablaufen der Bestrahlungsprozeduren wurden mit Hilfe der TQASoftware die Detektordaten heruntergeladen und mit einer IDLprogrammierten Software ausgewertet. Dazu wurden das Öffnen und
Schließen der Lamellen mit einer Sigmoidal-Funktion gefittet, um
Differenzen zu einem Erwartungswert zu bestimmen.
Ergebnisse: Die TQA-Messungen führten zu Abweichungen der
Zeitpunkte der MLC-Öffnungen von bis zu 2,5 ms von der gewählten
Referenzmessung. Die Messung der Zeitintervalle, in denen der MLC
geöffnet ist, wich vom Referenzwert um bis zu 2 ms ab. Die
Startzeitpunkte des Öffnungs- und Schließvorgangs zeigten
Unterschiede bis zu 5 ms zwischen den Lamellen. Die Untersuchungen
eines Reibungseffekts zwischen benachbarten Lamellen ergaben keine
signifikanten Unterschiede. Die Untersuchungen zur Abhängigkeit der
Lamellen-Öffnungszeit vom Luftdruck zeigten, dass die individuelle
Lamellen-Öffnungszeit von der Anzahl der simultan geöffneten Lamellen
abhängt. Verglichen wurde die Öffnungszeit beim Öffnen der einzelnen
Lamelle mit der Öffnungszeit derselben Lamelle bei simultaner Öffnung
des gesamten MLC. Dabei ergaben sich im Mittel Unterschiede
zwischen dem Öffnen einer einzelnen Lamelle und der des gesamten
MLC von 2,3 ms.
Schlussfolgerung: Die Messungen mit TQA sind einfach und schnell
durchzuführen
und
erlaubt
eine
gute
Einschätzung
der
Funktionsfähigkeit des MLC. Für genauere Betrachtungen müssen
weitere Effekte bedacht und entsprechende Messungen durchgeführt
werden. Das Detektorfeld bietet eine gute Möglichkeit einer
lamellenselektiven
QA
für
die
schnellen
MLC-Bewegungen
durchzuführen. Die Untersuchungen bezüglich Reibungsabhängigkeiten
und Abhängigkeit vom Luftdruck zeigten kleine Effekte. Diese Effekte
könnten sich auf sehr kleine Zeitintervalle geöffneter Lamellen im
Bereich der Zeit, die zum Öffnen und Schließen der Lamellen benötigt
wird, (20ms) auswirken. Die Lamellen könnten auf die Signalfolge zur
Öffnung und Schließung der Lamellen nicht reagieren. Eine Folge langer
Öffnungszeiten einer Lamelle könnte den gleichen Effekt hervorrufen.
1
3
Die Öffnungszeiten der Lamellen liegen im Bereich von 10 ms bis 10
ms. Ein Einfluss auf die Dosisverteilung lässt sich daraus schwierig
ableiten und ist stark von der patientenindividuellen MLC-Sequenz
abhängig.
untersucht werden. Je nach Bewegungsmuster werden die Kugeln als
Ellipsoid oder polymorph verzerrt wiedergegeben. In weiteren
Untersuchungen
wurden
die
Auswirkungen
unterschiedlicher
Scanprogramme (Variation von: Strahl-Schichtdicke, Schichtdicke der
rekonstruierten Bilder) auf die Abbildungsgenauigkeit untersucht. Wie zu
erwarten lassen sich selbst am nicht bewegten Phantom Artefakte durch
25
06.3
Klinische Implementierung des Verifikationssystems COMPASS für
volumenmodulierte Rotationsbestrahlungspläne des ProstataKarzinoms
R. Hielscher, D. M. Wagner;
Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie,
Göttingen, Germany.
Einleitung: Bei der volumenmodulierten Bestrahlungstechnik VMAT
(engl. volumetric modulated arc therapy) werden durch optimale
Anpassung der dynamischen Multileafkollimatoren (MLC), der
Rotationsgeschwindigkeit der Gantry sowie der Dosisleistung das
Zielvolumen mit ausreichender Dosis bei gleichzeitiger Schonung der
Risikoorgane erfasst. Um die Patientensicherheit zu gewährleisten, wird
jeder dynamische Bestrahlungsplan vor der ersten Bestrahlung
verifiziert. Mit Hilfe des COMPASS Systems (IBA, Schwarzenbruck,
Deutschland) kann die Dosisverteilung der VMAT Bestrahlungspläne
berechnet sowie gemessen werden. Hierfür benötigt das COMPASS
System ein an den verwendeten Linearbeschleuniger angepasstes
Beammodell. Ziel dieser Arbeit ist es, VMAT Bestrahlungspläne des
Prostata-Karzinoms durch ein unabhängiges Verifikationssystems zu
überprüfen.
Methode: Das COMPASS System besteht aus einem Flächendetektor
(MatriXX-Evolution), montiert mittels Gantryhalter direkt an den
Kollimatorkopf des Beschleunigers, einem Winkelsensor, sowie einem
Softwareprogramm für Auswertung und Visualisierung der erhobenen
Ergebnisse. Nach der Optimierung und Berechnung der Dosisverteilung
eines VMAT Bestrahlungsplans mittels Eclipse (Varian Medical Systems,
Helsinki, Finnland) wurde der komplette Patientendatensatz exportiert
und im COMPASS System importiert. Mittels des kommissionierten
Beammodells in COMPASS wurde die Dosisverteilung von zehn VMAT
Bestrahlungsplänen mit Prostata-Ca gemessen und rekonstruiert sowie
berechnet. Zur Bestrahlung des Prostata-Ca werden Gesamtdosen (GD)
von 60 Gy bis 72 Gy mit einer Einzeldosis (ED) von 2 Gy auf die
Prostataregion verschrieben. Zur Auswertung wurde das DosisVolumen-Histogramm (DVH) mit den Grenzen 99% und 95% der Dosis
im PTV, 100% der Dosis im CTV, mittlere Dosis der Blase, Prozent des
Volumens bei einer Dosis von 40 Gy, 65 Gy und 70 Gy des Rektums
herangezogen.
Ergebnisse: Der Vergleich der DVH von COMPASS berechneten sowie
gemessenen VMAT Bestrahlungsplänen von Prostata-Ca mit den
exportierten
Patientendatensätzen
aus
Eclipse
liefern
gute
Übereinstimmungen beim PTV sowie den mittleren Dosen der OAR. Die
statistische Auswertung der Ergebnisse ermöglicht einen schnellen
Überblick über etwaige Tendenzen der Dosisentwicklung und eine
deutliche Warnung, falls die gewählten Grenzwerte überschritten
werden.
Schlussfolgerung: Diese Arbeit zeigt die klinische Anwendung eines
dreidimensional
gestützten
Verifikationssystems
und
einer
übersichtlichen Darstellung der Ergebnisse für VMAT BestrahlungsplanQualitätskontrolle. Es konnte gezeigt werden, dass aus 2D
Fluenzmessungen von VMAT Bestrahlungsplänen des Prostata-Ca mit
einem gültigen Beammodell und den entsprechenden Patientendaten
die gemessene Dosisverteilung zu einem 3D Patientendatensatz
rekonstruiert werden konnte.
06.4
Multicentric pre-treatment quality assurance study on first 166
patients treated with Truebeam® using flattering filter free beams
1
2
2
3
4
S. Lang , P. Mancuso , G. Reggiori , J. Hrbacek , J. Puxeu Vaque , C.
5
2
1
6
Calle , M. Scorsetti , S. Klöck , L. Cozzi ;
1
2
University Hospital Zürich, Zürich, Switzerland, Istituto Clinico
3
Humanitas, Milano, Italy, Paul Scherrer Institute, Center for Proton
4
Therapy, Villingen, Switzerland, Institut Català d'Oncologia, Barcelona,
5
6
Spain, Kantonsspital, Winterthur, Switzerland, Oncology Institute of
Southern Switzerland, Bellinzona, Switzerland.
Purpose: Pre-treatment quality assurance data from three centers were
analysed with different verification devices to assess reliability of
flattening filter free beam delivery for IMRT and RapidArc (RA)
techniques.
Methods and Materials: TrueBeam is a new linear accelerator
designed for delivering flattened, as well as flattering filter free (FFF)
beams. Removal of the filter leads to an increased dose rate of 14
Gy/min for 6MV FFF (6FFF) and 24 Gy/min for 10MV FFF (10FFF). Pretreatment dosimetric validation of plan delivery was performed with
different verification devices and responses to high dose rates were
tested. Treatment panning was done in Eclipse planning system (PRO
8.9, AAA 8.9). γ evaluation was performed with ΔD=3% and DTA=3mm
scoring the gamma agreement index (GAI, % of field area passing the
test). 166 patients with 1 to 6 lesions in various anatomical regions and
dose per fraction ranging from 1.8 Gy to 25 Gy were included in the
26
study; 73 were treated with 6FFF beam energy and 93 with 10FFF
beams. For 6FFF: 11 RA and 8 IMRT plans were evaluated with
Gafchromics in solid water, 4 with Gafchromics in CIRS lung phantom,
25 RA and 3 IMRT plans with Delta4 and 22 RA with MatriXX. For 10
FFF beam energy 8 IMRT and 8 RA plans were evaluated with
Gafchromics in solid water, 1 RA patient with Gafchromics in CIRS lung
phantom, 3 IMRT and 7 RA plans with Delta4 and 74 RA with MatriXX. A
first coarse stratification was done according to the PTV volume (i: V<
50cc, ii: 50<V<100cc, iii: V>100cc).
Results: Mean GAIs of IMRT plans were 98.7±1.4% and 99.7±0.4% for
6FFF and 10FFF respectively; for RA plans mean GAIs were 99.0±0.8%
and 98.5±0.8% for 6FFF and 10FFF respectively. 9 stereotactic plans
with 6FFF beams were verified with Gafchromic dosimetry obtaining a
mean GAI (3mm, 1%) of 98.3±1.4%. Furthermore for 27 patients a pin
point dose verification was performed (6FFF beams) obtaining a dose
deviation of 1.2±0.9%. The GAI variations with volume were not
statistically significant (p<0.01).
Conclusion: The TrueBeam FFF modality, analysed with a variety of
verification devices, proves to be clinically safe and dose distributions
calculated with Eclipse system are dosimetrically accurate for both 6FFF
and 10FFF energies.
06.5
"Comptografie": Visualisierung der applizierten Dosis
1,2
1
1
1,3
P. Lewe-Schlosser , L. Tsogtbaatar , C. Lämmler , K. Zink ;
1
Universitätsklinikum Gießen und Marburg GmbH, Gießen, Germany,
2
3
Justus-Liebig-Universität, Gießen, Germany, Technische Hochschule
Mittelhessen, Gießen, Germany.
Motivation: Während der strahlentherapeutischen Anwendung gibt es
keine direkte Dokumentation der örtlichen Verteilung der applizierten
Dosis. Der einzige direkte Nachweis besteht in der Reaktion des
Gewebes. Einzig mit der virtuellen Rekonstruktion unter zur Hilfenahme
von Feldverifikationsaufnahmen gelingt es, bei der 3D-CRT-Anwendung
nachträglich die applizierte Dosis indirekt zu validieren. Aber auch diese
Methode scheitert bei Anwendungen ohne Verifikationsaufnahmen wie
IMRT oder IMAT. Hier ist - wie auch in der Partikeltherapie und der
Brachytherapie - eine Methode zum Nachweis der örtlichen Verteilung
der deponierten Energie wünschenswert.
Idee: Die während der Bestrahlung mit hochenergetischer
Photonenenstrahlung im Patienten erzeugte Compton-Streustrahlung
beinhaltet die gesuchte Information über die örtliche Verteilung der
Therapiedosis, zumindest aber die Ortsinformation über die ComptonWechselwirkung. Die bildliche Erfassung gerichteter Comptonstrahlung
(„Comptografie“) sollte also dem gewünschten Ergebnis nahe kommen.
Die Möglichkeiten dieser Bilderfassung in der MV-Teletherapie und der
Ir-192 Afterloadingtherapie auszuloten ist das Ziel dieser Arbeit.
Material und Methoden: Mittels einer zu diesem Zweck konstruierten
Pinhole-Kamera für hochenergetische Photonenstrahlung (Energie der
90° Comptonstreustrahlung nach MV-Bremsstahlung: ca. 450 keV, nach
Ir-192 Gamma-Strahlung: ca. 220 keV) sowie mit dem Einsatz
empfindlicher digitaler Speicherfolien (Dosis am Bildempfänger kleiner 1
mikro-Gray) als Bildaufnahmesystem wurden die Rahmenbedingungen
dieser Bilderfassung ermittelt. Dabei wurde das Kamerasystem in 1 m
Abstand vom Objekt senkrecht zur Zentralstrahlachse justiert (BildObjekt-Verhältnis 1:5) und Aufnahmen an gewebeäquivalenten
Phantomen und unter realen Therapiebedingungen am Patienten (2 Gy
Referenzdosis in Objektmitte bei 6MV und 18MV Bestrahlungstechniken;
8 Gy in 2 cm Abstand bei der Ir-192 HDR-Brachytherapie) generiert.
Ergebnisbeispiele: Aufnahmen der Pinhole-Kamera (nächste Seite)
Schlussfolgerung: Die Visualisierung der applizierten Dosis ist durch
die bildliche Erfassung der Compton-Streustrahlung möglich. Spielräume
für Optimierungen hinsichtlich der Quantenausbeute und der Auflösung
sind vorhanden.
06.6
Erfahrungen bei der klinikinternen Eingangsprüfung der
Dosisleistung von 106Ru/106Rh-Augenapplikatoren
1
2
T. W. Kaulich , M. Bamberg ;
Medizinische Physik, Radioonkologische Universitätsklinik, Tübingen,
2
Germany, Radioonkologische Universitätsklinik, Tübingen, Germany.
1
2
Bild 1. 6MV 15x15 cm Stehfeld auf RW3-Phantom (Kantenlänge 30 cm)
Bild 2. 6MV 4-Felder-Box auf RW3-Phantom (Kantenlänge 30 cm)
Einleitung:
Episklerale
Brachytherapie
mit
106Ru/106RhAugenapplikatoren ist seit über vierzig Jahren eine bewährte Methode
maligne Melanome des Auges zu therapieren. Im Gegensatz zur
radikalen Enukleation bleibt bei der episklerale Brachytherapie fast
immer das Auge des Patienten erhalten und in den meisten Fällen auch
der Visus. Bei der episkleralen Brachytherapie wird auf der Oberfläche
des Bulbus oculi temporär ein radioaktiver 106Ru/106RhAugenapplikator (Fa. BEBIG, Berlin, Germany) fixiert und damit der
intraokulare Tumor protrahiert durch die Sklera hindurch bestrahlt.
Der Hersteller BEBIG gibt für die 106Ru/106Rh-Augenapplikatoren in
seinen Zertifikaten an einem Referenzpunkt eine Dosisleistung an, die
auf den NIST-Standard (12/2001) rückführbar ist. Der Referenzpunkt
befindet sich in 2 mm Abstand von der Mitte der inneren (konkaven)
Oberfläche der Applikatoren. Seit der Einführung der NIST-Kalibrierung
wurde die Qualität der Weitergabe dieser Kalibrierung von der Fa.
BEBIG an den Anwender an n = 54 Augenapplikatoren untersucht.
Material und Methode: Der Anwender kann die Energiedosisleistung
von 106Ru/106Rh-Augenapplikatoren nicht messen, da es keinen
kommerziell erhältlichen Sekundärstandard für Betastrahlung gibt. Es
wurde deshalb die auf den NIST-Standard rückführbare Kalibrierung der
Fa. BEBIG übernommen, indem die Autoren ihre SzintillatorMesseinrichtung mit Hilfe von 106Ru/106Rh- Augenapplikator
kalibrierten. Das verwendete Plastikszintillator-Messsystem besteht aus
einem
0,8
mm³-Plastikszintillator,
einem
Sekundärelektronenvervielfacher und einer Hochspannungseinheit. Der
Plastikszintillator wurden mit einem 3d-Wasserphantom MP3S (Fa.
PTW-Freiburg, Germany) im Referenzpunkt, in 2 mm Abstand von der
Mitte der inneren (konkaven) Oberfläche der Applikatoren, positioniert.
Zur Messung des Stroms des Sekundärelektronenvervielfachers wurde
ein Therapiedosimeter vom Typ UNIDOS (Fa. PTW-Freiburg, Germany)
verwendet, das als Elektrometer betrieben wurde.
Ergebnisse: Für die Meßeinrichtung der Autoren ergab sich bei den
klinikinternen Eingangsprüfungen von 2002 bis 2004 bei n = 19
Augenapplikatoren ein Kalibrierfaktor von 38.0 mGy/µC. Die relative
Messunsicherheit im 95%-Konfidenz-Intervall betrug 3.7%, d.h. BEBIG
hat die NIST-Kalibrierung von 2002 bis 2004 offensichtlich sehr gut an
den Kunden weitergegeben. Dieser Kalibrierfaktor wird auch heute noch
bei den klinikinternen Eingangsprüfungen der Augenapplikatoren
verwendet, da BEBIG die Dosisleistungswerte immer noch auf den
NIST-Standard (12/2001) rückführt. In den letzten sechs Jahren ergaben
sich allerdings bei den klinikinternen Eingangsprüfungen teilweise
erhebliche Abweichungen von den Zertifikatswerten.
Im Jahr 2005 wurden vier Augenapplikatoren gekauft, bei denen die
Dosisleistung im Referenzpunkt um ca. 20% höher war als die
Dosisleistung im Zertifikat des Herstellers. Der Hersteller wurde
informiert und hat seine Dosisleistungswerte überprüft. Diese
Überprüfung ergab einen Fehler in der Messeinrichtung des Herstellers,
der daraufhin beseitigt wurde.
2006 und 2007 zeigten die klinikinternen Eingangsprüfungen keine
besonderen Auffälligkeiten.
In den Jahren 2008 und 2009 wurden 16 Augenapplikatoren gekauft, bei
denen die Dosisleistung im Referenzpunkt im Mittel um ca. 13% höher
war als die Dosisleistung im Zertifikat des Herstellers. Der Hersteller
wurde wieder informiert, hat jedoch bisher keine offizielle Stellungnahme
abgegeben.
2010 wurden 9 Augenapplikatoren gekauft, bei denen die Dosisleistung
im Referenzpunkt bei der klinikinternen Eingangsprüfung im Mittel um
ca. 7% niedriger war als die Dosisleistungsangabe im Zertifikat des
Herstellers. Am 11.04.2011 empfiehlt Bebig seinen Kunden
Augenapplikatoren, die nach dem 10.12.2010 augeliefert wurden, nicht
am Patienten anzuwenden. In einem weiteren Schreiben vom
05.05.2011 teilt Bebig den Kunden mit, dass noch keine weiteren
Erkenntnisse vorliegen.
Bild 3. Ir-192 im „Krieger“-Phantom mit 5 cm Applikationslänge
27
06.7
Physikalisch-technische Vorbereitung und Durchführung einer
Ganzhaut-Elektronentherapie
1,2
1
1
1
1,3
N. Götting , F. Siebert , V. Kneisel , J. Schultze , J. Dunst , B.
1
Kimmig ;
1
Klinik für Strahlentherapie, Universitätsklinikum Schleswig-Holstein,
2
Campus Kiel, D-24105 Kiel, Germany, HELIOS-Strahlenklinik Berlin,
3
HELIOS-Klinikum "Emil von Behring", D-14165 Berlin, Germany, Klinik
für Strahlentherapie, Universitätsklinikum Schleswig-Holstein, Campus
Lübeck, D-23538 Lübeck, Germany.
Hintergrund:
Die
physikalisch-technische
Vorbereitung
und
Durchführung einer Ganzhaut-Elektronentherapie für einen Patienten mit
Mycosis fungoides wird vorgestellt. Eine Beschreibung des klinischen
Verlaufes dieser Behandlung findet sich in einem Beitrag zum DEGROKongreß 2011 (J. Schultze et al.). Methodik: Die Behandlung des
Patienten mit einer Ganzhaut-Elektronentherapie wurde in einer
modifizierten Stanford-Technik durchgeführt. Der Patient befand sich
dabei in einem Fokus-Haut-Abstand von 375 cm stehend vor der
seitlichen Wand des Behandlungsraumes. Der Patient wurde aus sechs
Einfallsrichtungen bestrahlt und dazu jeweils um 60 Grad um seine
Längsachse gedreht. Zur Anwendung kam ein Linearbeschleuniger
(Clinac 2100 C/D, Varian Medical Systems, USA), der in einem
Elektronen-Betriebsmodus mit einer Energie von 6 MeV und besonders
hoher Dosisleistung betrieben wurde ("HDTSe"-Modus). Da die vertikale
Querverteilung eines solchen Feldes bei einem Gantrywinkel von 270
Grad nicht ausreichend homogen ist, wurde eine Doppelfeldtechnik
eingesetzt. Die Behandlung erfolgt dabei unter Gantrywinkeln von 252
Grad bzw. 288 Grad für den Ober- bzw. den Unterkörper. Die für die
Erstellung eines Bestrahlungsplanes erforderlichen Messungen der
Dosistiefen- und -querverteilungen sowie der Absolutdosis sind mit Hilfe
einer Rooskammer (PTW, Freiburg) in einem PMMA-Plattenphantom
erfolgt. Zur Kontrolle der Absolutdosis und der Dosisverteilung im Körper
wurden außerdem Filmmessungen in einem Aldersonphantom sowie
Monte-Carlo-Vergleichsrechnungen (Varian-Eclipse, Version 8.1)
durchgeführt. Zum Schutz von Augen, Finger- und Fußnägeln sowie
eines implantierten Defibrillators wurden Schutzelemente aus Bleiblech
angefertigt und meßtechnisch überprüft. Ergebnisse: Bei der
Behandlung traten keine unmittelbar mit der Bestrahlungstechnik
verbundenen Probleme auf. Es wurde eine Einzeldosis von 1,5 Gy (aus
klinischen Gründen später von 1,0 Gy) in Form von sechs Doppelfeldern
mit jeweiliger Drehung des Patienten um 60 Grad innerhalb einer
Zeitspanne von etwa 20 Minuten appliziert. Die Filmmessungen sowie
die Monte-Carlo-Vergleichsrechnungen zeigen mit Differenzen von ca. 5
bis 10% eine gute Übereinstimmung zu den Messungen mit der
Rooskammer. Die regelmäßigen Kontrollen von Absolutdosis und
Feldsymmetrien haben keine Abweichungen von mehr als 2% gezeigt.
Schlußfolgerung: Die physikalisch-technische Vorbereitung bis zur
Durchführung der Ganzhaut-Elektronentherapie konnte innerhalb von
vier Wochen abgeschlossen werden. Da es sich bei der
Bestrahlungsplanung um einen nicht patientenindividuellen Vorgang
handelt, ist nach einmaliger Bestimmung der Bestrahlungsparameter
lediglich die jeweilige Einzeldosis anzupassen.
Session 7: Audiologie Qualitätsaspekte beim Hören mit
Bilateralen Cochleaimplantaten und
Hörgeräten
07.1
Tutorial: Binaurale Sensitivität von Cochleaimplantat-Trägern und
Schwerhörigen
B. Laback, P. Majdak;
Institut für Schallforschung, Wien, Austria.
Beidohriges Hören ist essentiell für die Lokalisation von Schallquellen
und die räumliche Orientierung. Es ermöglicht auch das Verstehen von
Sprache in akustischen Umgebungen mit Störsignalen. Dabei wertet das
auditorische System binaurale Unterschiede aus, sogenannte interaurale
Zeitdifferenzen (ITD) und interaurale Intensitätsdifferenzen (ILD).
Die außer Diskussion stehende Wichtigkeit des binauralen Hörens führt
zur zunehmend beidohrigen Versorgung von schwerhörigen oder
ertaubten Menschen mit Hörgeräten (HG) oder Cochleaimplantaten (CI).
Studien zeigen jedoch, dass die Betroffenen trotz beidohriger
Versorgung mit HGs und CIs Verschlechterungen bei der
Lokalisationsgenauigkeit und Sprachverständlichkeit im Störgeräusch
gegenüber Normalhörenden aufweisen. Dies kann sowohl auf die
generell reduzierte Sensitivität der Betroffenen für ITDs und ILDs als
auch auf die unzureichende Übertragung der binauralen Information
aufgrund der derzeitigen Signalverarbeitung in HGs und CIs
zurückgeführt werden.
Im ersten Teil dieses Tutorials wird der Stand der Forschung zur
binauralen Sensitivität von CI-Trägern und Schwerhörigen unter exakter
Kontrolle der am Ohr ankommenden Signale präsentiert. Dabei werden
die Signale über ein CI-Forschungssystem im Falle der CI-Träger und
über Kopfhörer im Falle von Schwerhörigen dargeboten. Besonderes
Augenmerk wird auf die Wahrnehmung von ITD in der Feinstruktur und
in der Hüllkurve des Signals gerichtet. Im zweiten Teil werden
Ergebnisse zur binauralen Sensitivität, zur Lokalisationsgenauigkeit, und
zur Sprachverständlichkeit im Störgeräusch unter Verwendung von
klinischen CI-Prozessoren und HGs präsentiert. Im dritten und letzten
Teil werden mögliche Strategien zur Verbesserung der Übertragung von
binauraler Information mit CIs und HGs unter Berücksichtigung der
individuellen Sensitivität erörtert.
07.2
Current Research Review: Cochlear Implants for the Treatment of
Unilateral Hearing Loss
E. von Wallenberg, J. Wyss;
Cochlear AG, Basel, Switzerland.
Unilateral hearing loss is clinically defined as normal or almost normal
hearing in one ear and a hearing loss in the contralateral ear, ranging
anywhere between mild to profound degree which may be sensorineural,
conductive or mixed. Profound unilateral sensorineural hearing loss, also
referred to as Single-sided Sensorineural Deafness (SSD), is an
example of the most extreme asymmetrical hearing loss configuration. If
left untreated, in spite of normal hearing in one ear, individuals with
unilateral deafness do not have access to binaural listening skills and
experience significant disabilities in many daily situations. This is
particularly true for communication in competing background noise
especially when speech arrives at the poorer ear. Furthermore these
individuals cannot identify the location of sounds such as warning
signals or dynamic speakers such as at a party, class or work situations.
Although not regularly applied, approved treatment options such as
CROS hearing aids and Baha devices can provide some listening
advantages such as greater awareness of sound on the deafened side
with inherent limitations to providing true binaural cues. Unilateral
hearing loss is not an approved indication for treatment with cochlear
implants (CI) however, new clinical research is underway which
examines the added benefit of CIs in these patients to partially restore
binaural hearing cues for improved listening in more challenging listening
situations.
The presentation summarizes the recently published research that
demonstrates statistically significant improved hearing performance with
a CI for unilaterally deafened adults through the use of standard
subjective and objective audiological measures of binaural listening skills
compared to their performance with conventional approved treatment
methods.
28
07.3
Eine neue Methode zur Bestimmung der Lokalisationsfähigkeit bei
Kleinkindern
B. U. Seeber, C. J. Church, D. A. McCartney;
MRC Institute of Hearing Research, Nottingham, United Kingdom.
Seit einigen Jahren werden bilaterale Cochlea Implantate gezielt zur
Therapie von früher Taubheit bei Kindern eingesetzt. Das
Implantationsalter sank deutlich und beträgt oft nicht mehr als 9 Monate.
Der objektive und quantitative Nachweis des Erfolgs einer bilateralen
Implantation durch Tests für das richtungsabhängige Sprachverstehen
oder die Schalllokalisation erfolgt jedoch i.A. nicht bevor das Kind
Sprache verstehen und die Spielaudiometrie angewendet werden kann.
Um diese Evaluationslücke zu schliessen, wurde eine neue
Lokalisationsmethode für Kleinkinder ab einem Alter von circa einem
Jahr entwickelt. Die Methode ermöglicht eine quantitative Analyse der
Lokalisationsfähigkeit und beruht auf der Messung der Kopfdrehung hin
zu Schallen aus verschiedenen Richtungen. Mit Hilfe einer interaktiven
visuellen Umgebung wird eine erfolgreiche Kopfdrehung belohnt, so
dass das Kind in spielerischer Weise in den Versuch eingebunden wird.
Dadurch sind keine Instruktionen an das Kind nötig. Weiterhin wird mit
der Methode keine Person benötigt, die im Versuch direkt mit dem Kind
arbeitet, was organisatorische und finanzielle Vorteile nach sich zieht.
Die Methode wurde in einer Studie mit 30 Kindern im Alter von 1-5
Jahren evaluiert. Dabei wurden drei Belohnungsstrategien für
Kopfdrehungen untersucht: 1) Platzierung der visuellen Belohnung
immer voraus, 2) an der getesteten Schallrichtung, 3) in der Nähe der
getesteten Schallrichtung. Mit den Belohnungsstrategien 2 und 3, die im
Zusammenhang mit der Schallrichtung standen, erfolgten die meisten
Kopfdrehungen, d.h. sie motivierten die Kinder stärker. Die numerische
Analyse der Kopfdrehungen im Hinblick auf die Lokalisationsfähigkeit
erfolgte durch Anpassen von idealisierten Verlaufskurven, wodurch auch
zufällige Abweichungen unterdrückt werden. Im Vortrag wird die
Methode vorgestellt, es werden die verschiedenen Belohnungsstrategien
für Kopfdrehungen diskutiert und es werden Lokalisationsergebnisse der
Kleinkinder vorgestellt.
Gefördert durch das Intramural Programme des Medical Research
Council (UK).
07.4
Sprachverständnis im Störschall und Lokalisationsvermögen bei
einseitig tauben Patienten mit einem Cochleaimplantat
T. Wesarg, R. Laszig, R. Beck, C. Schild, S. Kröger, A. Aschendorff, S.
Arndt;
Universitätsklinikum Freiburg, HNO-Klinik, Freiburg, Germany.
Einleitung: Einseitige Taubheit (single sided deafness, SSD)
beschränkt das Sprachverständnis im Störschall sowie das
Lokalisationsvermögen. Die Behandlung von SSD-Patienten erfolgt
bisher überwiegend mit konventionellen CROS-Hörgeräten oder
knochenverankerten Hörgeräten (Baha). Die Versorgung von SSDPatienten mit einem Cochleaimplantat (CI) stellt eine recht neue
Behandlungsform für diese Patienten dar. In dieser monozentrischen
Untersuchung werden das Sprachverständnis im Störschall sowie das
Lokalisationsvermögen von mit einem CI versorgten Patienten mit
erworbener SSD in der unversorgten Situation sowie mit dem CI
untersucht.
Material und Methoden: Bisher wurden 28 Patienten mit einem CI
(Modelle Freedom Implant bzw. CI512 der Firma Cochlear) versorgt.
Das Sprachverständnis im Störschall wird mit dem Hochmaier-SchulzMoser (HSM)-Satztest bei einem festen Sprach- und Störschallpegel von
jeweils 65 dB SPL sowie in Form der Sprachverständlichkeitsschwelle
mit
dem
Oldenburger
Satztest
(OlSa)
in
den
drei
Präsentationsbedingungen S0N0, S45N-45 und S-45N45 ermittelt. Die
Untersuchung der Lokalisation erfolgt mittels sieben mit einem
Winkelabstand von 30° im vorderen Halbkreis angeordneten
Lautsprechern. Als Stimuli werden dabei OlSa-Sätze mit einem Pegel
von 65 dB SPL verwendet. Alle Tests wurden 6 und 12 Monate nach der
Erstanpassung des CI durchgeführt.
Ergebnisse: Bereits 6 Monate und auch 12 Monate nach der
Erstanpassung des CI zeigt sich ein signifikant besseres
Lokalisationsvermögen sowie eine signifikante Verbesserung des
Sprachverständnisses im Störschall mit dem CI im Vergleich zur
unversorgten Situation. Zwischen dem Sprachverständnis mit CI in der
schwierigsten Hörsituation und der Taubheitsdauer besteht eine positive
Korrelation.
Schlussfolgerungen: Mit der Versorgung von SSD-Patienten mit einem
CI ist eine signifikante Verbesserung des Sprachverstehens im
Störschall sowie des Lokalisationsvermögens möglich. Dabei stellt die
sorgfältige Patientenselektion einen entscheidenden Faktor für den
Erfolg dieser Versorgung dar. Unsere Ergebnisse legen nahe, dass eine
kürzere Taubheitsdauer auch eine bessere binaurale Integration der
Reizantworten der beiden physikalisch sehr unterschiedlich stimulierten
Ohren ermöglicht.
07.5
Sprachverstehen, Frequenzdiskrimination und Melodieerkennung
bei Patienten mit elektrisch-akustischer Stimulation (EAS),
bimodaler, bilateraler und unilateraler Cochlea-ImplantatVersorgung
1,2
1
2
T. Rader , U. Baumann , H. Fastl ;
1
Audiologische Akustik, Klinik für HNO-Heilkunde, Goethe-Universität
2
Frankfurt am Main, Frankfurt am Main, Germany, AG Technische
Akustik, MMK, TU München, München, Germany.
Cochlea-Implantat-(CI)-Patienten
mit
ausreichend
nutzbarem
akustischen Tiefton-Restgehör am ipsi- oder kontralateralen Ohr zeigen
im Mittel bessere Hörleistungen als konventionell uni- und bilateral
versorgte
CI-Patienten.
Besonders
das
Sprachverstehen
in
Störgeräuschsituationen sowie die Qualität des Musikhörens sind
deutlich durch den zusätzlich zur elektrischen Stimulation nutzbaren
akustischen Anteil gegenüber den Patientengruppen ohne nutzbares
Restgehör verbessert.
Der
Beitrag
präsentiert
Ergebnisse
zur
Bestimmung
der
Sprachverständlichkeitsschwelle (SVS) im Störgeräusch, erfolgte in
verschiedenen Störgeräuschsituationen mit Hilfe des Oldenburger
Satztests in einem räumlichen Schallfeld (Multi-Source Noise Field,
MSNF, Rader 2008). Das Sprachsignal wurde hierbei frontal in einer
Hörkabine mit adaptiv gesteuertem Schallpegel dargeboten. Die
Störgeräuschdarbietung erfolgte über vier unkorrelierte Kanäle, bei der
die Lautsprecher für das Störgeräusch in den Raumecken der Hörkabine
angeordnet waren. Vergleicht man die Ergebnisse der verschiedenen
Patientengruppen, so zeigt sich im Störgeräusch nach Fastl in der EAS
aber auch der bimodal versorgten Gruppe eine günstigere SVS (CI
gemeinsam mit Hörgerät am Gegenohr). Beiden Gruppen steht ein
„mehr“ an akustischer Information zur Verfügung, insbesondere feine
Tonhöhenunterschiede können besser detektiert werden.
Sprachverständlichkeitsschwellen im Multi-Source Noise Field mit FastlRauschen
Unilateral CI Bilateral CI Bimodal CI/HG EAS/HG
Normalhörend
5.6 dB SNR 1.5 dB SNR -1.75 dB SNR -3.9 dB SNR -14.1 dB SNR
Die Melodie-Erkennung von bekannten Liedern wurde mit
Reintonsignalen untersucht. Bei diesem Test erzielte die EAS Gruppe
mit 98 % richtig erkannten Melodien ein nahezu identisches Ergebnis zu
den Normalhörenden (100 %), wobei die unilateral versorgte CIPatientengruppe ohne nutzbares Restgehör mit 59 % Diskrimination
eine deutlich geringere Erkennungsrate zeigte. Die Ergebnisse dieser
Studie belegen den Beitrag von nutzbarem akustischen Restgehör bei
CI-Trägern sowie den durch eine bilaterale Versorgung bewirkten
Gewinn im Bezug auf das Sprachverstehen im Störgeräusch und auf die
Melodieerkennung.
Rader T, Schmiegelow C, Baumann U, and Fastl H.: Oldenburger
Satztest im "Multi-Source Noise Field" mit unterschiedlichen
Modulationscharakteristika. In: U. Jekosch and R. Hoffmann, editors,
Tagungsband Fortschritte der Akustik - DAGA 2008, Dresden, pp. 663664, 2008.
29
Session 8: Aktuelle Entwicklungen in
der Dosimetrie
08.1
CE Lecture: Refresher: Dosimetrie kleiner Photonen-Felder in der
DIN 6809-8
G. Bruggmoser;
Universitätsklinikum Freiburg, Klinik für Strahlenheilkunde, Freiburg,
Germany.
Einleitung: Die kleinen Photonen-Felder stellen weitere Anforderungen
an die Dosimetrie als konventionelle Felder bedingt durch die geringe
Ausdehnung der Strahlenfelder, die bei stereotaktischen Bestrahlungen,
bei der IMRT, bei der IMAT und bei der Tomotherapie verwendet
werden.
In der Norm werden Detektoren empfohlen, die geeignet für kleine
Felder sind. Zur Dosimetrie in kleinen Photonenfeldern wird ein „kleines
Kalibrierfeld“ der Größe 4 cm x 4 cm definiert und die dabei relevanten
Korrektionsfaktoren für kleine Photonenfelder angegeben. Die Norm
umfasst weiterhin die Messung von Streufaktoren im Wasserphantom
sowie frei Luft zur Bestimmung des Phantom-Streufaktoren. Falls kein
Feld 10 cm x 10 cm eingestellt werden kann, werden alternative
Methoden angegeben. Schlussendlich werden Vorschläge zur
Parametrisierung von Dosisverteilungen in kleinen Feldern und Angaben
zur Messunsicherheit getroffen.
Methode: Kalibrierung von hochauflösenden Detektoren im „kleinen
Kalibrierfeld“
Äquivalente Feldgrössen kleiner als 5 cm x 5 cm werden der Norm als
„kleines Feld“ bezeichnet.Die Referenzbedingungen für die Dosimetrie in
der Strahlentherapie sind in der DIN 6800-2 beschrieben. Diese
Referenzbedingungen wirken sich bei der Kalibrierung hochauflösender
Detektoren wie Silizium-Dioden aus, weil das zu hohe Ansprechen
dieser Detektoren auf niederenergetische Streustrahlung den
Kalibrierfaktor beeinflusst. Deshalb wird in der neuen DIN 6809-8 eine
Anschlussmessung in einem „kleinen Kalibrierfeld“ mit einer Feldgröße
von 4 cm x 4 cm für das Kalibrieren von Silizium-Dioden an
Ionisationskammern eingeführt.
Bei kleinen Feldern ist die feldgrößenabhängige Korrektion auf Grund
des geringen niederenergetische Dosisbeitrags bei einigen Dioden sehr
klein, muss jedoch ggf. berücksichtigt werden [Sauer]. Bei der als
Referenz dienenden Ionisationskammer ist der Volumeneffekt bei 4 cm x
4 cm ebenfalls klein, kann jedoch über einen Volumenskorrektionsfaktor
kV berücksichtigt werden. Die Norm beschreibt alle Bedingungen für die
Kalibrierung von hochauflösenden Detektoren im kleinen Kalibrierfeld.
Messungen im kleinen Photonen-Feld
Anschlussmessung
Nach DIN 6800-2 kann die Energiedosis bei Photonenstrahlung mit Hilfe
60
einer Kompaktkammer bei 10 cm x 10 cm und Co bestimmt werden.
Damit wird die Wasserenergiedosis bei 4 cm x 4 cm bestimmt und eine
Anschlussmessung für hochaulösende Detektoren (z.B. Si-Diode)
durchgeführt.Diese Detektoren können dann für Messungen in kleinen
Feldern herangezogen werden.
Messung der Streufaktoren (Outputfactors)
Die Wasserenergiedosis D an einem Punkt im Wasserphantom für eine
Strahlungsqualität Q setzt sich aus der primären Strahlung des
Beschleunigers und Streubeiträgen zusammen. Zur quantitativen
Beschreibung dieser Beiträge in Abhängigkeit von der Feldgrösse
(Seitenlänge s) dient der Totale Streufaktor in Wasser Scp(s), s. Formel
(1).
Scp erhält man aus dem Verhältnis der Achsendosen pro Monitoreinheit
D(s,zref,dref)/MU bei der Seitenlänge s und D(sref,zref,dref)/MU bei der
Seitenlänge sref des Referenzfeldes:
(1) Scp(s) = [D(s, zref, dref)/MU] / [D(sref, zref, dref)/MU]
Zur Messung des Strahlerkopfstreufaktors Sc(s) ist nach [Zhu] ein
wasseräquivalentes Miniphantom mit ausreichender longitudinaler und
lateraler Ausdehnung zur Eliminierung der Elektronenkontamination zu
verwendet. Für kleine Felder (s < 5 cm) kann ein Phantom, bestehend
aus einem Material mit höherer Ordnungszahl (z.B. Messing) zum
Einsatz kommen. Aus Scp(s)·und dem Strahlerkopfstreufaktor Sc(s)·
erhält man den Phantom-Streufaktor Sp(s)·:
(2) Scp(s) = Sc(s)·Sp(s)
Schlussfolgerung: In DIN 6809-8 wird die Methode zur Messung der
Wasserengiedosis bei kleinen Feldern beschrieben..
Literatur Entwurf DIN 6809, Klinische Dosimetrie - Teil 8: Kleine
Photonen-Bestrahlungsfelder
DIN 6809, Klinische Dosimetrie - Teil 6: Anwendung hochenergetischer
Photonen- und Elektronenstrahlung in der perkutanen Strahlentherapie.
DIN 6800, Dosismessverfahren nach der Sondenmethode für Photonenund Elektronenstrahlung, Teil 2: Dosimetrie hochenergetischer
Photonen- und Elektronenstrahlung mit Ionisationskammern.
Sauer, O.A., Wilbert, J. (2007): Measurement of output factors for small
photon beams Med. Phys. 34 1983-1988
30
Zhu, T.C., Ahnesjö, A., Lam, K.L., Li, X.A., Ma, C.-H.C., Palta, J.R.,
Sharpe, M.B., Thomadsen, B., Tailor, R.C. (2009): Report of AAPM
Therapy Physics Committee Task Group 74: In-air output ratio, Sc, for
megavoltage photon beams. Med. Phys. 36, 2561-5291.
08.2
State-of-the-Art Lecture: Aktuelle Entwicklungen in der Dosimetrie
2010/2011
B. Poppe;
AG Medizinische Strahlenphysik, Carl von Ossietzky Universität,
Oldenburg, Germany.
In diesem Beitrag sollen als Fortsetzung eines Vortrages aus dem Jahr
2010 die aktuellen Entwicklungen im Bereich der Dosimetrie beleuchtet
werden. Es wird ein Überblick über die im letzten Jahr in den wichtigsten
Journals erschienenen Artikel gegeben. Anhand einer sinnvollen
Gruppierung der Beiträge in detektorspezifische und methodische
Verfahren soll eine Einordnung und generelle Linie der Entwicklungen
erarbeitet werden.
08.3
Eigenschaften der Patienten-Streustrahlung, der Hauptkomponente
der peripheren Dosis
1
2
1
1
N. Chofor , D. Harder , K. Willborn , B. Poppe ;
1
2
Pius-Hospital Oldenburg, Oldenburg, Germany, Georg-August
University, Göttingen, Germany.
Bei der Photonen-Strahlentherapie ist nicht nur die vor und hinter dem
Zielvolumen, sondern auch die seitlich neben dem Nutzstrahl erzeugte
"periphere Dosis" ein unerwünschtes, möglichst zu minimierendes
Nebenprodukt. Der peripheren Dosis gilt besonderes Interesse, seit bei
geheilten Patienten vorwiegend am Feldrand strahleninduzierte
sekundäre Malignome entdeckt worden sind und intensiv studiert
werden [1].
Systematische Messungen der peripheren Dosis bei 6 und 15 MV in
RW3-Phantomen wurden an dem Beschleuniger Siemens Primus 6/15
durchgeführt, der analog wie andere Beschleunigertypen durch ein
zweites, in crossplane-Richtung wirksames Blockblendenpaar (5 cm
dicke Bleiblöcke) ergänzt war [2]. Das in Fig. 1 dargestellte Ergebnis
lässt erkennen, dass die Dosisanteile der Kollimator-DurchlassStrahlung und der Strahlerkopf-Streustrahlung bei guter Abschirmung
deutlich kleiner sind als der Anteil der vom bestrahlten Volumenbereich
des Patienten bzw. Phantoms ausgehenden "Patienten-Streustrahlung"
bzw. "Phantom-Streustrahlung". Das Verhältnis beträgt je nach
Achsenabstand etwa 1:4 bis 1:2. Für Abschätzungen der peripheren
Dosis, z. B. zwecks Aufstellung von Dosis-Wirkungs-Beziehungen für
strahleninduzierte sekundäre Malignome, sind daher die Eigenschaften
der Patienten-Streustrahlung besonders wichtig. Die PatientenStreustrahlung ist nicht nur die größte, sondern auch diejenige
Komponente der peripheren Dosis, die sich durch konstruktive
Maßnahmen am Beschleunigerkopf nicht verringern lässt.
In einer Monte-Carlo-Studie unter Verwendung des EGSnrc-Modells,
das in vorausgehenden Untersuchungen experimentell validiert wurde
[3], haben wir die Eigenschaften des Beitrages der PhantomStreustrahlung zur peripheren Dosis systematisch untersucht. Am
Feldrand quadratischer Felder erreicht der Streubeitrag bei großer
Feldseitenlänge die Größenordnung von 10 % der Dosis in Feldmitte; er
ist der Seitenlänge annähernd proportional. Außerhalb der Feldgrenzen
nimmt der Streubeitrag mit wachsendem Achsenabstand annähernd
exponentiell ab; die Halbwertsdicke beträgt etwa 3 bis 5 cm. Bei 6 MV ist
der Streubeitrag größer als bei 15 MV, und mit der Tiefe nimmt er zu.
Bei unregelmäßiger Feldform kann der periphere Streubeitrag aus den
Beiträgen von pencil beams zusammengesetzt werden. Das Spektrum
der Streustrahlung ist durch mehrfachen Comptoneffekt weitgehend zu
Energien im Bereich einiger hundert keV verschoben. Dies lässt im
Vergleich zu den Verhältnissen im Nutzstrahl erhöhte RBW-Werte sowie
verändertes Ansprechvermögen von dosimetrischen Detektoren und
veränderte Fluenz-Dosis-Konversionsfaktoren erwarten.
[1] Tubiana M 2009 Can we reduce the incidence of second primary
malignancies occurring after radiotherapy? A critical review Radiother.
Oncol. 91 4-15
[2] Chofor N, Harder D, Rühmann A, Willborn K C, Wiezorek T and
Poppe B 2010 Experimental study on photon-beam peripheral doses,
their components, and some possibilities for their reduction Phys. Med.
Biol. 55 4011-4027
[3] Chofor N, Harder D, Willborn K C, Rühmann A and Poppe B 2011
Low-energy photons in high-energy photon fields - Monte Carlo
generated spectra and a new descriptive parameter Z. Med. Phys. 21
(2011) doi: 10.1016/j.zemedi.2011.02.002
[1] Djouguela A., Griessbach I., Harder D., Kollhoff R., Chofor N.,
Rühmann A., Willborn K., Poppe B. Dosimetric characteristics of an
unshielded p-type Si diode: linearity, photon energy dependence and
spatial resolution. Z Med Phys 2008; 18: 301-306.
[2] Schwedas M., Scheithauer M., Wiezorek T., Wendt T.G.
Strahlenphysikalische Einflussgrößen bei der Dosimetrie mit
verschiedenen Detektortypen. Z Med Phys 2007; 17: 172-179.
08.4
Beschreibung der Halbschattenverbreiterung durch das endliche
Volumen von Ionisationskammern mit Hilfe von Gaußschen
Faltungskernen
1
1,2
3
1,2
T. S. Stelljes , H. Looe , D. Harder , B. Poppe ;
2
Carl von Ossietzky Universität Oldenburg, Oldenburg, Germany, Pius
Krankenhaus Oldenburg – Klinik für Radiologie und internistische
3
Onkologie, Oldenburg, Germany, Georg-August-Universität Göttingen,
Göttingen, Germany.
1
Dosisquerprofile hochenergetischer Photonenstrahlungen erfahren bei
der Messung mit Ionisationskammern eine Verbreiterung ihrer
Halbschattenregion. Die durch die endliche Größe eines Detektors
verursachte Verbreiterung des gemessenen Dosisprofiles M(x) lässt sich
mathematisch als Faltung des wahren, ungestörten Dosisprofils D(x) mit
der lateralen Ansprechfunktion f(x) des zur Messung verwendeten
Detektors beschreiben.
Die Messungen von f(x) bei 6 und 15 MV in den Tiefen 5 cm und 15 cm
wurden an einem Siemens Primus Beschleuniger 6/15 (Siemens
Medical Solutions, Erlangen, Deutschland), in Kombination mit einem
MP3-Wasserphantom
(PTW-Freiburg),
an
zwei
Semiflex
Ionisationskammern (31013, 31010 - beide PTW-Freiburg), einer
PinPoint Kammer (31014 - PTW-Freiburg) und einem Diodendetektor
(60012 - PTW-Freiburg) durchgeführt. Es wurde angenommen, dass die
Messwerte der Diode in guter Näherung das ungestörte Dosisprofil D(x)
darstellen [1], wobei die Diode bei vermehrter niederenergetischer
Streustrahlung im peripheren Bereich die Dosis leicht überschätzt [2].
Die Ansprechfunktionen f(x)
werden durch eindimensionale
Gaußfunktionen mit den Parametern σlat bzw. σlong modelliert, welche für
die Anordnung der Kammerachse senkrecht bzw. parallel zur
Scanrichtung gelten. Die Parameterwerte werden schrittweise so lange
verändert, bis die Faltung des Diodenprofils mit f(x) mit dem durch die
untersuchte Ionisationskammer gemessenen Profil M(x) übereinstimmt.
Die Bestimmung von σlat erfolgte an einem 1 mm breiten Schlitzstrahl,
diejenige von σlong an einem 4 cm breiten Rechteckfeld.
Die Messergebnisse sind in Tab. 1 und Tab. 2 dargestellt. Eine
Tiefenabhängigkeit der Parameter σlat und. σlong wurde nicht gefunden.
Der Fehler bei der Abschätzung der Parameter beträgt ±0,1 mm,
abgeleitet aus der Beurteilungs-Unsicherheit des Anpassungs-Optimums
bei ihrer schrittweisen Veränderung.
Semiflex 31013 Semiflex 31010 PinPoint
σlat / mm 6 MV
2,39 ± 0,01mm 2,18 ± 0,01mm 0,94 ± 0,01mm
σlat / mm 15 MV
2,42 ± 0,01mm 2,28 ± 0,01mm 0,90 ± 0,01mm
Tabelle 1: Sigmawerte der lateralen Ansprechfunktion
Semiflex 31013 Semiflex 31010
PinPoint
σlong / mm 6 MV
4,86 ± 0,01mm 2,26 ± 0,01mm 1,96 ± 0,01mm
σlong / mm 15 MV
5,04 ± 0,01mm 2,48 ± 0,01mm 2,00 ± 0,01mm
Tabelle 2: Sigmawerte der longitudinalen Ansprechfunktion
Um die Validität der Parameterwerte zu beweisen, wurden zusätzlich
Messungen an quadratischen Feldern der Größe 2 x 2 cm² und 4 x 4
cm² vorgenommen. Es zeigte sich, dass auch hier die Faltung der Diode
mit Gaußfunktionen, unter Verwendung der in Tabelle 1 aufgeführten σWerte, die Messung mit Ionisationskammern sehr gut wiedergibt (siehe
Abbildung 1). Die Ansprechfunktionen von Ionisationskammern in
lateraler und longitudinaler Richtung können also durch Gaußfunktionen
sehr gut angenähert werden. Durch die Kenntnis der Faltungskerne f(x)
für verschiedene Bauarten von Ionisationskammern ist es möglich, die
mit ihnen gemessene Dosisprofile M(x) zu entfalten, um die ungestörten
Dosisprofile D(x) zu erhalten. Zusätzlich zu den hier bereits aufgeführten
Kammern werden z. Zt. auch Ionisationskammern der Firma IBA
Dosimetry vermessen.
Abbildung 1: Beispiel für die Gültigkeit des Parameters σlong der Semiflex
31010 Kammer bei 6 und 15 MV und in den Tiefen 5 und 15 cm in
Wasser. Als Testfeld wurde hier ein kleines Quadratfeld verwendet.
08.5
Positionsabhängig korrigierte Dosismessungen mit Kombinationen
aus Si-Diode und Ionisationskammer im Photonenfeld
M. Parczyk, O. A. Sauer;
Klinik und Poliklinik für Strahlentherapie, University of Würzburg,
Würzburg, Germany.
Motivation: Ionisationskammern (IK) haben ein nur geringfügig
energieabhängiges Ansprechvermögen und eignen sich deshalb
besonders für die Relativdosimetrie. Nachteilig ist ihr relativ großes
Volumen, weshalb sie für die Dosimetrie kleiner Felder weniger geeignet
sind. Silizium-Dioden (Si-Dioden) haben eine hohe Empfindlichkeit und
kleine Volumina. Sie sind deshalb für Dosismessungen mit hohen
räumlichen Auflösungen besser geeignet. Jedoch weisen Si-Dioden für
Photonen niedrigerer Energien ein erhöhtes Ansprechvermögen auf und
liefern beispielsweise zu hohe Signale außerhalb des Photonenfeldes
und in größeren Messtiefen. Um korrekte Dosisverteilungen mit hoher
räumlicher Auflösung zu messen, wurden Dosisquerprofile mit
Kombinationen aus IK und Si-Diode aufgenommen. Aus denen wurden
ortsabhängige Korrekturfaktoren und somit dosimetrisch korrigierte
Dosisverteilungen mit hoher räumlicher Auflösung bestimmt.
Methoden: Bei Photonen mit 6 MV wurden Dosisquerprofile in einem
2
2
Standardfeld (9,6 x 10,4 cm ) und einem schmalen Feld (0,8 x 10,4 cm )
simultan mit Kombinationen aus Ionisationskammer (PTW 31010) und
Si-Dioden gemessen. Verwendete Si-Dioden waren die Scanditronix/IBA
SFD, die PTW E 60012 und der Sun Nuclear Edge Detector. Die
Messwerte wurden anhand des zentralen Bereichs des Standardfeldes
normiert. Nachdem für jedes Detektorpaar die Messwerte mit der
räumlichen Empfindlichkeit des jeweils anderen Detektors gefaltet
wurden, ergab das Verhältnis der Dosiswerte von Ionisationskammer
und Si-Diode den ortsabhängigen Korrekturfaktor. Multiplikation der
Korrekturfaktoren mit den Si-Diodenmesswerten ergab die hoch
aufgelösten, dosimetrisch korrigierten Dosisquerprofile.
Ergebnisse: Fünf Zentimeter außerhalb der Feldgrenze überstiegen die
unkorrigierten Messwerte der Si-Dioden das Signal der IK des
Standardfeldes bzw. des schmalen Feldes um 10% bis 46% bzw. um
6% bis 14%. Vor der Korrektur unterschieden sich die Signalstärken der
Si-Dioden deutlich, nach der Korrektur zeigten alle einen einheitlichen
Verlauf. Im zentralen Bereich des schmalen Feldes lagen die
Korrekturfaktoren zwischen 1 und 1,1 (d.h. unkorrigierte Messwerte
waren im kleinen Feld zu niedrig). Korrigierte Messwerte im Zentrum des
schmalen Feldes lagen ca. 20% über denen der IK. Die Breiten der
Halbschatten der korrigierten Querprofile hatten nur 62% der Breiten,
welche mit der IK gemessen wurden.
Schlussfolgerung: Korrekturfaktoren sind für die Dosimetrie kleiner
Felder mittels Si-Dioden essentiell. Durch kombinierte Messungen mit IK
und Si-Dioden können ortsabhängige Korrekturfaktoren für räumlich
höher aufgelöste Dosismessungen mit Si-Dioden bestimmt werden. Die
31
Dosisverteilungen der Si-Dioden können korrigiert werden. Reduzierte
Halbschattenbreiten und höhere gemessene Dosiswerte im Zentrum des
schmalen Feldes belegen eine Verringerung des Volumeneffektes im
Vergleich zu IK-Messungen.
60
L-α-alanine for neutron irradiation compared to the Co reference beam.
This factor is determined in Mainz by means of a one-hit detector model
and currently ranges at ~0.82. The second series of simulation focus on
the determination of the relative biological effectiveness (RBE-factor) of
the neutron and photon dose for liver cells. Therefore cell culture plates
157
10
Gd and
B at different
with the cell medium enriched with
concentrations are irradiated. The respective RBE-factors are then
deducted from survival curves.
Results: The MCNP calculations show very stable results with statistical
relative errors of 3% and less. When comparing the calculated absorbed
dose in the alanine pellets to the results from NPL one can observe two
remarkable parallel curves. However for the RE-factor the results from
this calculation would imply a value of ~0.70 which seems to be in
contradiction with the theoretical model, but similar values have been
found by other authors in accordance with experimental studies [2]. The
cell culture calculations showed the enormous impact of the added
isotopes with high thermal neutron cross sections on the absorbed dose.
Conclusion: As cell killing is mainly influenced by the linear energy
transfer (LET) and the range of the secondary produced particles it is
crucial for BNCT to get more information on the site of boron
accumulation - intracellular or extracellular. Gadolinium shows to be an
interesting alternative for neutron capture therapy due to effective
electron production and its paramagnetic properties (MR-Imaging).
[1] Zonta et al. Appl Radiat Isot. 2009;67:67-75
[2] Waligorski et al. Appl Radiat Isot. 1989;40:923-933
08.7
Bestimmung der Energiedosis in einem Medium dichter als Wasser
bei 6MV Photonen mit einer zur Anzeige der Wasserenergiedosis
kalibrierten Ionisationskammer
1
2
B. Rhein , G. Hartmann ;
1
Medizinische Physik, RadioOnkologie und Strahlentherapie,
2
Universitätsklinik, Heidelberg, Germany, Medizinische Physik in der
Strahlentherapie, DKFZ, Heidelberg, Germany.
08.6
Dosimetry simulations of irradiated alanine pellets and cell cultures with
MCNP in Boron Neutron Capture Therapy (BNCT)
1,2
2
3
4
4
M. Ziegner , H. Böck , N. Bassler , P. Sharpe , H. Palmans , T.
5
5
5
5
6,7
Schmitz , C. Grunewald , C. Schütz , G. Hampel , M. H. Holzscheiter ,
1
M. Blaickner ;
1
Austrian Institute of Technology GmbH, Health & Environment
2
Department - Molecular Medicine, Vienna, Austria, Institute of Atomic
and Subatomic Physics, Vienna University of Technology, Vienna,
3
4
Austria, University of Aarhus, Aarhus, Denmark, National Physical
5
Laboratory, Teddington, United Kingdom, Institute for Nuclear
6
Chemistry, University of Mainz, Mainz, Germany, Max Planck Institute
7
for Nuclear Physics, Heidelberg, Germany, Dept. of Physics &
Astronomy, University of New Mexico, Albuquerque, United States.
Introduction: This work is part of a larger project initiated by the
University of Mainz and aiming to use the university’s TRIGA reactor to
develop a treatment for liver cancer based on Boron Neutron Capture
Therapy (BNCT). Diffuse distribution of cancerous cells within the organ
makes complete resection difficult and the vicinity to radiosensitive
organs impedes external irradiation. Therefore the method of
“autotransplantation”, first established at the University of Pavia, is used
[1]. The liver is explanted, irradiated in the thermal column of the reactor,
therewith purged of metastases and then reimplanted. A highly precise
dosimetry system including quantification of radiobiological effects on
liver tissue is to be developed by means of measurements and in vitro
experiments at the University of Mainz as well as computational
calculations at the AIT.
Materials and Methods: The Monte Carlo Code MCNP-5 is applied for
the simulations. To verify the calculations alanine dosimetry is used.
Dissected human liver lobes are cut into slices and L-α-alanine pellets
are shrink-wrapped in PE foil and sewed into it. The calculated absorbed
dose in the pellets is compared to analysis of the Primary Standard
Laboratory at the National Physical Laboratory (NPL) in the United
Kingdom where electron spin resonance spectrometer are used to detect
the amount of radiation induced radicals formed. In order to compare
both quantities the NPL signal has to be scaled with a factor called
relative effectiveness (RE) to take into account the reduced sensitivity of
32
Einleitung: Die experimentelle Validierung der in einem TPS
implementierten Dosisberechnungsalgorithmen sollte nicht nur in
Wasser, sondern auch Materialen anderer Dichte als Wasser erfolgen.
In diesem Beitrag wird die Dosisbestimmung mit einer kalibrierten
Ionisationskammer in einer 4 cm dicken Aluminiumschicht beschrieben.
Aluminium wurde als Knochenersatz und als Extremum für den oberen
Dichtebereich
gewählt.
Mit
einer
in
Wasser
kalibrierten
Ionisationskammer wird in einem beliebigen Medium, in diesem Fall
Aluminium, ein Wert gemessen, der näherungsweise als WasserEnergiedosis betrachtet werden kann. Dieser Wert muss über einen
Inhomogenitäts-Korrektur-Faktor (ICF) in die Dosis im Medium
(Aluminium) überführt werden.
Material und Methode: In einem RW3 Plattenphantom wurden vier 1cm
dicke Aluminium Platten in die Tiefe 6-10cm eingebracht. Mit einer PTW
0.125cm³ Ionisationskammer wurde in 1 cm Schritten die WasserEnergiedosis durch den Phantomaufbau bei 6MV Photonen eines LB
Siemens Artiste für isozentrische Felder 3x3cm² und 12x12cm²
(SSD:95cm) gemessen. Innerhalb der Aluminium- Inhomogenität wurde
eine ICF Korrektur angewendet, um die Dosis im Medium (Aluminium)
wiederzugeben (AAPM Report 85). Die ICF Korrektur entspricht dem
Verhältnis der beschränkten Massenstoßbremsvermögen Medium zu
Wasser, dem Verhältnis der Wandstörungsfaktoren pwall und dem
Verhältnis der Fluenzstörungsfaktoren pcav von Medium zu Wasser. Die
zur ICF Berechnung notwendigen Photonen- und Elektronenspektren
stammen aus früheren Monte Carlo Berechnungen für 6 MV Photonen.
Die damit ermittelte Dosis in Aluminium wurde mit einer Monte Carlo
Rechnung (BEAMnrc) verglichen. In diesem Fall wird die Energiedosis
immer im Medium der eingegebenen Geometrie berechnet. Als Quelle
wurden die Daten eines Phase-Space-Files für einen 6 MV Primus
verwendet. Die MC Ergebnisse wurden als die der Wirklichkeit am
nähesten Daten betrachtet. Parallel dazu wurde der Dosistiefenverauf
mit dem am DKFZ entwickelten Pencil Beam Algorithmus DC09
berechnet.
Ergebnisse: Für die PTW 0.125cm³ Kammer wurde für Aluminium bei
dem 6 MV Photonenspektrum ein Korrekturfaktor ICF = 0.87 ermittelt
und die im Aluminium gemessene Wasserenergiedosis in die
Aluminiumenergiedosis überführt. Die Abweichung der gemessenen
gegenüber der Monte Carlo berechneten Aluminiumdosis beträgt im
Mittel 3.5% für das 3x3cm² Feld und 2.5% für das 12x12cm² Feld. Die
folgende Abbildung zeigt den Tiefendosisverlauf durch den
Phantomaufbau für das 3x3cm² Feld, berechnet mit dem Pencil Beam
Algorithmus, der Monte Carlo Dosisberechnung und der gemessenen
Dosis im Medium (0.125cm³ - ICF korrigiert). Der auf Wasserdaten
basierte Pencil Beam Algorithmus gibt die Dosis in Aluminium durch
Umrechnung in wasseräquivalente Wegstrecken zwar nicht ganz genau,
jedoch relativ gut wieder.
improved with BCC to 0.1% and 0.5%, respectively. A study of 210 film
pieces resulted in an excellent sheet-to-sheet uniformity. Sensitometric
curves didn’t show an influence in the observed energy range and the
chosen setup parameters. Therefore a reference curve representing the
mean value was used. This reference curve together with relative
deviations between sensitometric curves of each energy and relative to
the reference curve is shown in figure 1.
Discussion: The new EBT2 film yields comparable results to its
predecessor EBT. The general advantages of radiochromic film
dosimeters are completed by high film homogeneity, low energy
dependence for the observed energy range and an independency to the
used setup parameters. The implementation of the BCC as
recommended by the manufacturer didn’t show a significant
improvement in film uniformity.
Figure 1:
Zusammenfassung: Ma und J Li (2011) kommen zu dem Schluss, dass
auf Wasserdaten basierte Rechenalgorithmen näher an der korrekten
Energiedosis im Medium liegen, als die Wasserdosis im Medium, die
über den Ansatz der Bragg Gray Theorie bestimmt wurde. Zum
Vergleich muss daher auch die Energiedosis im Medium durch eine
geeignete Korrektur mit Hilfe einer Ionisationskammer bestimmt werden
können. Es wäre wünschenswert, wenn in IonisationskammerDosimetrieprotokollen
ICF
Faktoren
für
definierte
Gewebeersatzmaterialen in Abhängigkeit des Strahlenqualitätsfaktors Q
angegeben werden könnten.
Literatur:
C-M Ma und J Li (2011)
Dose specification for radiation therapy: dose to water or dose to
medium?
Phys. Med. Biol. 56 3073-3089
AAPM Report No. 85 (2004)
Tissue Inhomogeneity Corrections for Megavoltage Photon Beams
www.aapm.org/pubs/reports/rpt_85.pdf
08.8
Charakterisierung und Kalibrierung von Gafchromic EBT2 Filmen
für Qualitätssicherung in der Strahlentherapie
R. Dreindl, M. Stock, D. Georg;
Medizinische Universität Wien, Wien, Austria.
Introduction: Radiochromic film is a widely used dosimetric tool for
quality assurance in radiation therapy. One of the most popular
radiochromic films is the Gafchromic EBT film (ISP, New Jersey). When
EBT2 was presented as a replacement for the first generation EBT films,
the question arose if this new radiochromic films will be comparable or
even better in terms of homogeneity, reproducibility and usability. An
obvious change of EBT2 films was the inclusion of a yellow marker dye
that gives the films its color. According to the manufacturer this dye can
be used to compensate for non-uniformities in film thickness by
implementing a provided correction algorithm (Blue channel correction BCC). The aim of this study was to implement the BCC and to
benchmark the EBT2 film against the well-known characteristics of EBT
films.
Materials and Methods: A protocol based on the experience of the
department with first generation EBT films was established to ensure
comparable results. For digitalization of the films we used a flatbed
transparency scanner (type Epson Expression 1680). Further
calculations and the implementation of BCC were done in Matlab. For
the quantification of the film’s post-irradiation darkening and the effect of
film orientation in the scanner we used doses of 0cGy, 30cGy, 200cGy
and 800cGy. Homogeneity of unirradiated and irradiated EBT2 films was
investigated on three different aspects: (i) local uniformity of single pixel
values, (ii) regional uniformity within single film sheets and (iii) sheet-tosheet uniformity. Furthermore the influence of BCC regarding regional
uniformity was investigated and sensitometric curves for energies 6MV,
10MV and 18MV were determined in a dose range from 0cGy to 800cGy
and used to derive a calibration curve for absolute dosimetry afterwards.
In addition the influence of experimental setup parameters like
measurement depth and field size was evaluated.
Results: For post-irradiation darkening all measured dose levels
reached 98% of their 5-day optical density within 22h. Pixel values
measured in portrait and landscape orientation differed for 1.7%, 2.7%,
4.7% and 5.7%, respectively for doses 0cGy, 30cGy, 200cGy and
800cGy. Investigations on local uniformity showed a stable pixel noise
for ODs around 0.9%. Regional uniformity was found to be 0.2% for pixel
values of unirradiated and 0.8% of irradiated films and could be
33
Session 9: Freie Themen aus dem
Bereich der Strahlentherapie
09.1
Optimierung der dosimetrischen Randbedingungen zur intraoperativen Bestrahlungsplanung der Permanenten
Seedimplantation (PSI) auf Grundlage von
Postimplantationsanalysen
1
2
3
3
K. U. Kasch , P. Wust , T. Henkel , F. Kahmann ;
1
2
Beuth Hochschule für Technik Berlin, Berlin, Germany, Charité,
3
Universitätsmedizin Berlin, Berlin, Germany, Ambulantes OP-Zentrum
im Ullsteinhaus, Berlin, Germany.
Motivation: Die Permanente Seedimplanation (PSI) zählt heute zu den
etablierten
Alternativen
bei
der
Behandlung
des
lokalen
Prostatakarzinoms mit im Vergleich oft reduzierten Nebenwirkungen bei
gleicher Tumorkontrolle. Gegenwärtig verfügbare Algorithmen zur
(notwendigerweise) inversen Planung der Methode beschränken sowohl
Anzahl als auch Art klinisch wünschenswerter Randbedingungen.
Entsprechende
Leitlinienempfehlungen
zu
dosimetrischen
Randbedingungen stellen deshalb nur einen Grundstandard sicher. In
dieser Studie wird nach einem von den Algorithmen erlaubten und in der
klinischen
Praxis
einsetzbaren
Satz
von
(dosimetrischen)
Randbedingungen gesucht, der zu einem optimalen klinischen Ergebnis
führt.
Material und Methoden: Im Rahmen dieser Studie standen Daten von
insgesamt fast 2000 von den Autoren bisher implantierten Patienten zur
Verfügung. Für eine Untergruppe von 400 Patienten existieren
standardisierte Patienten-Rückmeldungen, die eine Auswertung von
akuten und späten Nebenwirkungen ermöglichen. Aus den zugehörigen,
CT-basierten Postimplantationsanalysen ergeben sich Aussagen über
die Stabilität der dosimetrischen Faktoren, d.h. der Zusammenhang
zwischen bei intra-operativer Planung angestrebten und in der
Postimplantationsanalyse
tatsächlich
erreichten
dosimetrischen
Randbedingungen. Die zusätzliche Auswertung der Korrelation der
dosimetrischen Faktoren mit den aus den Patientenrückmeldungen
abgeleiteten klinischen Ergebnissen ergibt schließlich einen Satz von für
das Planungssystem handhabbaren dosimetrischen Randbedingungen.
Hierfür wurden mit einer Gruppe von 20 Masterstudierenden retrospektiv
mehr als 300 Patientendatensätze erneut und jeweils mehrmals geplant.
Die Ergebnisse der retrospektiven Planungen werden anhand einer
einfachen Zielfunktion (quadratische Norm) für die Randbedingungen
sowie den resultierenden Dosis-Volumen-Histogrammen (DVH) für die
Prostata und die beiden Risikoorgane Urethra und Rektum bewertet. Die
Ergebnisse der Mehrfachplanungen werden in einer Lernkurve
interpretiert.
Ergebnisse: Für die verwendeten Randbedingungen besteht ein klar
herausgearbeiteter Zusammenhang zwischen dem Wert der Zielfunktion
und den DVH. Es wird gezeigt, dass dies unabhängig von der
verwendeten Seedaktivität gilt. Die Lernkurve der Masterstudierenden
zeigt eine steile Tendenz, was als klinische Praktikabilität und
Robustheit der verwendeten Randbedingungen interpretiert wird.
Schlussfolgerung: Die Auswertung von Postimplantationsanalysen und
Patientenbefragungen erlaubt eine Optimierung der dosimetrischen
Randbedingungen für die intra-operative Bestrahlungsplanung der PSI,
die neben der mit der Zahl der Implanationen wachsenden Erfahrung
maßgeblich zur Verbesserung der klinischen Ergebnisse der PSI
beitragen.
09.2
Darstellung der Wasserenergiedosis für I-125 interstitielle
Brachytherapiequellen
T. Schneider, H. Selbach;
PTB, FB 6.2, Braunschweig, Germany.
Im Rahmen des “EURAMET joint research project: Brachytherapy”
entwickeln die Nationalen Metrologie Institute (NMI’s) in Europa neue
Primärnormale, um die Dosisleistung von radioaktiven Photonenquellen,
wie sie in der „Low-Dose-Rate“ (LDR)-Brachytherapie zur Anwendung
kommen (z.B. Jod-125), in der Messgröße Wasser-Energiedosis (Dw) zu
bestimmen. Diese sollen in Zukunft die gegenwärtigen Primärnormale in
der Messgröße Luftkermaleistung (Reference Air Kerma Rate, RAKR)
ersetzen. Mit diesem Schritt soll das Ziel erreicht werden, eine
Genauigkeit, vergleichbar mit der in der Radiotherapie mit externen
Strahlen, zu erreichen.
Da für die Vermessung von LDR-Quellen aufgrund ihrer höheren
Sensitivität ionisierende Methoden zu bevorzugen sind, basiert das
Primärnormal der Physikalisch-Technische Bundesanstalt (PTB) auf
dem Prinzip einer Extrapolationskammer (EXPO), die sich in einem
Phantom aus wasseräquivalentem Material befindet.
34
Basierend auf der Strahlungstransporttheorie wurde eine neue
Messmethode entwickelt. In einer kürzlich erschienenen Publikation
konnte gezeigt werden, dass diese Methode sehr robust ist gegenüber
Unsicherheiten der atomaren Wechselwirkungsquerschnitte und der
Spektren. In dem dargestellten Vergleich konnten die daraus
resultierenden Unsicherheiten von 10 % (RAKR) auf 1 % (EXPO)
reduziert werden.
In dieser Präsentation wird das Design der Extrapolationskammer sowie
die Messmethode vorgestellt. Die Wasserenergiedosis von einer „BEBIG
Symmetra I25.S16 - Quelle“ wird bestimmt und die Unsicherheiten
werden diskutiert. Um einen Vergleich mit Literaturdaten zu ermöglichen,
wurde zusätzlich die Dosisleistungskonstante dieser Quelle
experimentell durch eine Bestimmung der RAKR mit dem Primärnormal
GROVEX I ermittelt. Die voraussichtlichen Vorteile der neuen Methode
im Vergleich zu RAKR-Messungen werden sowohl für die untersuchte
Quelle, für andere radioaktive LDR-Quellen, als auch für
Miniaturröntgenröhren diskutiert.
ACKNOWLEDGMENT: The research within this EURAMET joint
research project leading to these results has received funding from the
European Community's Seventh Framework Programme, ERA-NET
Plus, under Grant Agreement No. 217257.
09.3
Selektive Interne Radiotherapie bei diffuser Lebermetastasierung
1
2
3
M. Wösle , S. J. Diehl , J. Hesser ;
Ubbo-Emmius-Klinik gGmbH/Radioonkologie, Aurich (Ostfriesland),
2
Germany, Universitätsklinikum Mannheim/Klinische Radiologie und
3
Nuklearmedizin, Mannheim, Germany, Universitätsklinikum
Mannheim/Strahlentherapie und Radioonkologie, Mannheim, Germany.
1
Der Goldstandard bei der Behandlung von Lebermetastasen und primärtumoren ist die Resektion. Es gibt jedoch Krankheitsfälle, bei
denen die Resektion, Chemotherapie oder Radiotherapie mittels Teleund interstitieller Brachytherapie nicht möglich sind oder höchstens
palliativen Charakter haben. Bei der Teletherapie sind die erreichbaren
Energiedosiswerte in den Tumorherden begrenzt, da das gesunde
Leberparenchym radiosensitiver als die Tumorzellen ist. Für die meisten
Lebermetastasen, die histologisch gesehen Adenocarcinome sind,
benötigt man mindestens 70 bis 90 Gy zur Nekrotisierung. Seit 2006
wird in Deutschland eine neuartige strahlentherapeutische Methode bei
großvolumigen Leberläsionen angewendet, die die oben genannten
Therapieoptionen sinnvoll ergänzt: die Selektive Interne Radiotherapie
(SIRT).
Mittels SIRT lassen sich kurative Energiedosiswerte im Bereich 100 bis
300 Gy in den Tumorherden erreichen, ohne das gesunde
Leberparenchym nachhaltig zu schädigen. Dabei werden mikroskopisch
kleine Kügelchen (Mikrosphären) aus Kunstharz oder Glas, die einen
Elektronenstrahler tragen, in die tumornahen Abschnitte der Leberarterie
eingeschwemmt. Meist wird dazu Yttrium-90 oder Phosphor-32 mit
Aktivitäten im Bereich 2 bis 3 GBq verwendet. Beim Zerfall von Yttrium90 entstehen Elektronen mit einer mittleren Energie von 933 keV, die im
Gewebe des Patienten weiche bis harte Bremsstrahlung erzeugen, die
sich effektiv zur Therapiekontrolle nutzen lässt.
Die Mikrosphären mit Durchmessern im Bereich 20 bis 60 μm werden
permanent in den Arteriolen der Tumorherde implantiert. Von dort aus
erfolgt die Nekrotisierung der Tumorzellen auf zweifache Weise. Die
Bestrahlung mittels Elektronen erfolgt aufgrund ihrer maximalen
Reichweite von 11 mm in Weichteilgewebe in unmittelbarer Nähe der
Elektronenbahnen. Man erhält sehr steile Dosisgradienten am
Tumorrand, und mit der individuellen Wahl der Einschwemmorte ist die
Therapie äußerst selektiv. Problemlos können mehrere Tumorherde zur
internen
Bestrahlung
ausgewählt
werden.
Der
zweite
Wirkungsmechanismus bei der SIRT ist die Embolisation, da die
Mikrosphären die Blutversorgung der Tumorherde fast vollständig zum
Erliegen bringen. Das Resultat ist eine Kombination aus der vom
arteriellen Blutfluss gesteuerten Brachytherapie sowie der Embolisation
der arteriellen Tumorblutversorgung, also eine Radioembolisation.
Eine radiogene Hepatitis, großvolumige Fibrosierungen sowie
Leberversagen treten bei der SIRT äußerst selten auf. Zwei
pathophysiologische Umstände in der erkrankten Leber befördern die
geringe Nebenwirkungsrate: Die gesunden Leberzellen werden zu
ungefähr 75 % aus der Pfortader mit nährstoffreichem Blut versorgt; die
restlichen 25 % der Blutversorgung werden durch die Leberarterie
bewerkstelligt. Bei den Tumorherden mit arterieller Hypervaskularisation
stehen die Beiträge der Gefäßsysteme ungefähr in umgekehrtem
Verhältnis. Da die SIRT meist intraarteriell durch die Leberarterie
durchgeführt wird, bleiben die Pfortader und somit große Teile des
gesunden Leberparenchyms von der Therapie unberührt.
Es werden die medizinischen und physikalischen Aspekte der Therapie
von Leberkrebs mittels SIRT, die Bedeutung des ganzen verfügbaren
medizinischen Bildgebungsspektrums sowie die Wichtigkeit der
Simulation bei dieser Therapieart beleuchtet. Der etablierten
Simulationsmethode mittels makroaggregierten Albuminpartikeln und
des Markers Technetium-99m wird eine neue vielversprechende
Methode mittels der kontrastmittelverstärkten quantitativen Perfusionsmessung bei der Magnetresonanzangiographie gegenübergestellt.
09.4
A mathematical framework for modeling brain tumor progression
and responses to radiation therapy
1,2
1
1,3
1,2
1
S. Becker , A. Mang , T. A. Schütz , A. Toma , T. M. Buzug ;
University of Lübeck, Institute of Medical Engineering, Lübeck,
2
Germany, Centre of Excellence for Technology and Engineering in
3
Medicine, Lübeck, Germany, Graduate School for Computing in
Medicine and Life Science, Lübeck, Germany.
1
Introduction: The present work extends a mathematical model that
simulates the progression of malignant brain tumors as well as the effect
of radiotherapy. In clinical practice, an optimization of treatment
outcome, which includes a maximization of tumor control while
minimizing normal tissue toxicity, necessitates not only a quantification
of the biological effect on cancerous but also on healthy tissue. The
present model therefore extends the standard approaches by also
modeling the effect of radiotherapy on normal tissue. Ultimately, such
models could allow for estimating the biological effect of different
treatment schedules and, thus, could contribute to predictions of
individualized therapy outcomes.
Methods: The present model describes the spatio-temporal dynamics of
tumor cell density on the basis of a reaction-diffusion equation, which
describes the proliferation of tumor cells as well as their migration into
surrounding healthy tissue. The effects of radiation are described by an
extension of the linear-quadratic model. This model offers in addition to
low-dose hypersensitivity a high flexibility for integrating repair and
varying therapy parameters (e.g. irradiation duration, treatment delays).
A second differential equation describes the spatio-temporal progression
of the necrotic density that accounts for the effects of irradiation on
cancerous and normal tissue as well as degradation due to
phagocytosis.
Results: We quantitatively analyzed tumor growth and the efficacy of
irradiation under a variety of treatment schedules and dose distributions.
Figure 1(a) depicts first results of the described model illustrating the
simulated cell density before (left) and after (right) therapy (2 Gy/fraction,
5 fractions/week, 6 weeks of treatment). Here, blue indicates areas
predominantly determined by passive diffusion (low tumor density),
whereas red and green areas (high tumor density) constitute the domain
estimated to be detectable in modern imaging devices. The diffusive
character of the simulated tumor before treatment and a strong reduction
in cell density after treatment are clearly visible. Changes in the size of
the safety margin yield, as shown in figure 1(b), significant differences in
the total number of tumor cells NT (left) and the total number of cells NHN
that were healthy and have become necrotic due to irradiation (right).
Conclusion: The present work introduces a novel approach that allows
for simulating tumor growth and the effects of irradiation. Typically,
radiation-induced cell death is modeled by the linear-quadratic model,
which has shown to be limited in describing, for instance, incompleterepair and high-dose radiation. To overcome these limitations, we
introduced an extension to the standard approach that not only allows for
incorporating prior knowledge about low-dose hypersensitivity but also
offers a high flexibility for varying therapy parameters.
At this, we are able to analyze growth delays under different
fractionations and dose distributions. By additionally describing the
effects of radiation on healthy tissue it is possible to determine a tradeoff
between tumor control and normal tissue toxicity. Incorporation into
clinical planning systems could ultimately allow for highly individualized
refinement of treatment parameters based on model predictions.
Avenues for research in near future include clinical evaluation and
extension to other types of external beam radiation therapies.
09.5
Clinical investigation of a laser-based surface imaging system for
setup correction in radiotherapy
1
2
2
2
2
T. Moser , K. Schubert , G. Sroka-Perez , M. Uhl , G. Habl , K.
2
2
1
Herfarth , J. Debus , C. P. Karger ;
1
German Cancer Research Center/Dept. of Medical Physics in Radiation
2
Oncology, Heidelberg, Germany, Heidelberg, Germany, University
Hospital of Heidelberg/Dept. Radiation Oncology, Heidelberg, Germany,
Heidelberg, Germany.
Purpose: To evaluate the suitability of a 3D-laser surface imaging
system in determining inter-fractional setup corrections for different
tumour sites in radiotherapy.
Materials and Methods: A laser-imaging system (Galaxy, LAP Laser,
Lüneburg, Germany) was used to reconstruct 3D patient surfaces with
high resolution. The system is mounted at the ceiling of a tomotherapy
unit (tomo, Hi•Art System, TomoTherapy, Madison, WI, USA). The
reflections of the projected laser lines are recorded by a camera and a
3D-surface model of the patient is reconstructed. The actual patient
position is then registered with a reference model. That can be acquired
with the system itself or imported as skin contour from the treatment
planning CT via DICOM interface. As a result, a setup correction with 6
degrees of freedom is calculated. This correction can be used to improve
the inter-fractional setup accuracy of the patient. A study was performed
to investigate the clinical suitability of the described setup correction
procedure for six different tumour sites (brain, head & neck, breast,
thorax, abdomen, and pelvis). For each site, 20 patients were included.
The setup corrections derived from registration of the Megavoltage (MV)
CT with the treatment planning CT were considered as gold standard.
After initial setup using skin marks and room lasers, a surface image
was acquired. The corrections proposed by the surface imaging system
in lateral (LAT), longitudinal (LNG) and vertical (VRT) direction were
compared with the respective values from the MVCT. In addition, the
radial deviation in space (RAD) was calculated. Informed consent was
obtained from all patients. The study was approved by the local ethics
committee.
Results: As an example, the tumour locations upper abdomen and brain
are shown for the reference image obtained with the laser system at the
first fraction after the MVCT-based correction (Fig. 1). For the tumour
site upper abdomen, the deviations between both correction methods
are generally larger than for the brain. The maximum deviation of the
median from zero is -2.3 mm (abdomen) and -0.6 mm (brain),
respectively. The better agreement for the brain is attributed to the use
of a mask system and the fact that the skull presents a rigid structure. If
the DICOM structure was used as reference, significant deviations
especially in VRT were observed.
Conclusion: Surface imaging systems may be used to improve interfractional setup accuracy in radiotherapy. The use of a reference images
acquired with the system itself appears more reliable than the use of
DICOM structures. A potential workflow could be to generate a reference
image at the first fraction after initial MVCT setup and performing further
radiological image guidance during the treatment course, only if predefined intervention thresholds are exceeded. This approach would help
to reduce the imaging dose for the patient. Nevertheless, the overall
accuracy of the proposed corrections was found to be strongly
dependent on tumour site.
Acknowledgement: This work was partly funded by LAP (Lüneburg,
Germany).
09.6
Verringerung der Lagerungsvariabilität durch Einführung einer
indexierten Patientenpositionierung und Anpassung der
Toleranztabellen für die Tischparameter im Verifikationssystem
T. Krieger, R. Schmitt, H. Hutzel, J. Wilbert;
University of Würzburg, Klinik und Poliklinik für Strahlentherapie,
Würzburg, Germany.
Moderne Record- und Verify-Systeme (R&V) sind in der Lage, neben
den
Bestrahlungsfeldparametern
auch
die
Koordinaten
des
Behandlungstisches zu überwachen und aufzuzeichnen. Sie bieten
außerdem die Möglichkeit, durch die Wahl von Toleranztabellen einen
Beschleunigerinterlock anzusprechen, der bei zu hohen Abweichungen
der Tischparameter von einer festgelegten Referenzposition die
Bestrahlung verhindert. Der richtige Einsatz dieses Interlocks kann also
dem Anwender einen Warnhinweis auf einen potentiellen Fehler bei der
Patientenlagerung geben und somit helfen Fehlbehandlungen zu
vermeiden. Um die Toleranzen möglichst niedrig halten zu können,
wurde an unserer Klinik im Laufe des letzten Jahres schrittweise an 3
35
von 4 geometrisch baugleichen Beschleunigern eine indexierte
Patientenpositionierung eingeführt. Die Indexierung erfolgt dadurch,
dass verschiedene Lagerungshilfen in geeigneter Weise am
Bestrahlungstisch fixiert werden. Für 82 Patienten, die mit insgesamt
1948 Fraktionen im Brust-/Thoraxbereich bestrahlt wurden, wurden die
im R&V-System aufgezeichneten lateralen und longitudinalen
Tischparameter retrospektiv analysiert. Es wurden jeweils die
Abweichungen von den bei der ersten Fraktion festgelegten
Referenzwerten betrachtet. Bei 47 Patienten mit 1148 Fraktionen,
welche ohne Indexierung gelagert wurden, ergab sich eine mittlere
Abweichung lateral von 1,92±1,53cm, longitudinal von 4,02±3,14cm. Bei
den indexiert gelagerten Patienten (n=35, 800 Fraktionen) verringerten
sich die Werte lateral auf 0,9±0,84cm und longitudinal auf 0,94±1,43cm.
Anders ausgedrückt: Um 95% (98%) der Fraktionen ohne
Beschleunigerinterlock applizieren zu können benötigt man bei der nichtindexierten Lagerung einen Toleranzbereich von ±5cm (±6cm) lateral
und ±10cm (±12,5cm) longitudinal. Bei indexierter Lagerung reduziert
sich die Toleranz auf lateral ±2,2cm (±3,2cm) und longitudinal ±2,5cm
(±4,3cm). Abb. 1 und 2 zeigen die Ergebnisse in graphischer Form.
Zusammenfassung: Die vorliegende Arbeit zeigt, dass bei Bestrahlungen im Thoraxbereich durch eine indexierte Patientenpositionierung die Lagerungsvariabilität signifikant verringert werden
kann. Als Konsequenz können die Toleranzen für die Tischparameter im
R&V-System sehr eng gewählt werden und der von diesen getriggerte
Beschleunigerinterlock bietet einen verlässlichen Hinweis auf eine
potentiell fehlerhafte Patientenlagerung, da die im R&V-System
aufgezeichneten Bestrahlungstischparameter als Surrogat für die
Patientenposition verwendet werden können.
Literatur: Hadley SW, Balter JW, Lam KL; Analysis of couch position
tolerance limits to detect mistakes in patient setup; J Appl Clin Med Phys
2009; 10(4):207-219
09.7
Monte-Carlo Simulation zur Bestimmung der totaler Streufaktoren
bei unterschiedlichen Detektoren
D. Czarnecki, J. Wulff, K. Zink;
Institut für Medizinische Physik und Strahlenschutz, Giessen, Germany.
Einleitung: Bei der Intensitätsmodulierten Radiotherapie (IMRT) sowie
in der sterotaktischen Radiotherapie werden kleine Felder (<4x4cm²) am
Patienten eingesetzt, deren Dosimetrie mit großen Unsicherheiten
verbunden ist. Gründe hierfür sind der Volumeneffekt des Detektors
sowie die Abschattung des Fokus der Strahlenquelle durch das
Blendensystem. In der vorliegenden Arbeit wurden Monte-Carlo
Simulationen aber auch Messungen durchgeführt, um Streufaktoren in
kleinen Feldern zu bestimmen (Outputfaktoren). Der Streufaktor SCP ist
wie folgt definiert.
36
Darin bedeutet A die Feldgröße, z die Messtiefe und d der FokusOberflächen-Abstand. Die mit ref indizierten Größen beziehen sich auf
die jeweiligen Referenzbedingungen.
Material und Methode: Um den Streufaktor zu bestimmen wurden
Dosismessungen in einem Wasserphantom bei einem FokusOberflächen-Abstand dref=90cm und einer Messtiefe zref=10cm bei
unterschiedlichen Feldgrößen an einem Siemens-Beschleuniger KD 2
durchgeführt. Diese Messungen wurden mit den Ionisationskammern
PTW31016, PTW31010, dem abgeschirmten Halbleiter-Detektor
PTW60008 sowie den nicht abgeschirmten Halbleiter-Detektor
PTW60017 durchgeführt. Die Messungen wurden mit Ergebnissen aus
Monte-Carlo Simulationen verglichen. Für die Monte-Carlo Simulationen
wurde das Programm Paket EGSnrc und BEAMnrc eingesetzt. Mit
BEAMnrc wurde der Teilchentransport durch den Linearbeschleuniger
Siemens KD bei unterschiedlichen Feldgrößen simuliert. Mit dem
Benutzercode egs_chamber wurde der weitere Teilchentransport durch
das Wasserphantom und die Detektoren simuliert. Mit den beiden
Luftgefüllten Ionisationskammern PTW30016 und der PTW31010 aber
auch dem Halbleiter-Detektoren PTW60016 und PTW60017 wurden die
Energiedosen in 10cm Wassertiefe bei unterschiedlicher Feldgröße
berechnet. Da in der Dosimetrie die Wasserenergiedosis als
Bezugsgröße gilt, wurde auch in einem genügend kleinen Wasservoxel
(1mm³) die Energiedosis berechnet. Aus den errechneten Dosiswerten
wurde schließlich die Streufaktor Scp bei unterschiedlicher Feldgröße
bestimmt.
Ergebnisse: Die Ergebnisse aus den Simulationen und aus den
Messungen weichen geringfügig von einander ab (Abbildung 1). Im
Rahmen der Ungenauigkeiten bei den Messungen und den
Simulationen, kann die Simulation als realitätsnah angesehen werden.
Die Ergebnisse zeigen, dass ab einer Feldgröße von 2x2cm² die
Streufaktoren eine starke Abhängigkeit von den Detektoren aufweisen
(Abbildung 2 und 3). Es ist erkennbar, dass sich kleinere Streufaktoren
ergeben, je größer der Detektor ist. Vergleicht man die Abweichung der
Streufaktoren aus der Wasserenergiedosis im Wasservoxel mit den
Streufaktoren ermittelt mit den Detektoren, so ergibt sich für die
Halbleiterdetektoren die geringste Abweichung. Dies ist vor allen durch
das
kleine
Messvolumen
zu
erklären.
Damit
scheinen
Halbleiterdetektoren für die Dosimetrie mit kleinen Feldern am
geeignetsten.
Es werden noch Simulationen und Messungen mit kleineren Feldern
durchgeführt, um das Verhalten der Detektoren bei sehr kleinen Feldern
zu untersuchen. Für die Erzeugung solcher Felder werden
Rundkollimatoren eingesetzt.
Abbildung 1: Vergleich der Outputfaktoren des Siemens KD
Linearbeschleunigers aus Simulationen und Messungen bei einer
Energie von 6MV-X mit den angegebenen Detektoren. Zur Messung der
Dosis wurde sowohl bei den Messungen als auch bei den Simulationen
der Halbleiterdetektor PTW60016 (links) und die Ionisationskammer
PTW31010 (rechts) verwendet. Zusätzlich ist der Quotient aus
simulierten und gemessenen Werten dargestellt.
Abbildung 2: Aus der Monte-Carlo Simulation errechnete Outputfaktoren
für den Siemens KD Linearbeschleuniger mit einer Photonenenergie von
6MV-X mit Detektoren unterschiedlich großen Messvolumens
Isodosenabstand wieder mehr dem Ruhezustand an, allerdings nicht mit
der Regelmäßigkeit der offenen Felder. Der Gatingeffekt erwies sich in
einer Reihe von 10 Messungen als stabil. Eine 1D mathematische
Modellierung mit konstanten Funktionen und an den Rändern
angestückelten Gausfunktionen simuliert sehr genau die offenen Felder.
Bei dyn. KF können die beobachteten 8-10% Änderungen der
Dosisverteilung in beide Richtungen ebenfalls mathematisch mit ihrer
Abhängigkeit von den rel. Bewegungsrichtungen von Tisch und Blende
simuliert werden.
Schlussfolgerung: Die Isodosenverteilungen ändern sich bei
lungentypischen Bewegungen des Targets in beträchtlichem Ausmaß
gegenüber dem Ruhezustand (was von einem TPS nicht berücksichtigt
wird). Die Verschmälerung der Isodosenlinien (>50%) bzw.
Verbreiterung (<50%) bei offenen Feldern kann mithilfe eines einfachen
mathematischen Modells beschrieben werden. Isodosenverteilung und
Neigungswinkel erweisen sich bei mechanischen Keilfilterfeldern als
sehr robust gegenüber Bewegung, während es bei dynamischen
Keilfilterfeldern sowohl zu Verbreiterungen, als auch Verschmälerungen
der z.B. 90%-Isodose und Neigungswinkeländerungen kommen kann.
Diese Effekte aufgrund der konkurrierenden Bewegungen können
ebenfalls mithilfe eines einfachen mathematischen Modells verstanden
werden. Ob es insgesamt zu einer Verbreiterung oder Verschmälerung
kommt, hängt unter anderem von den Startbedingungen ab. Da man im
Patientenbetrieb dies nicht beeinflussen kann, sollte vom Einsatz
virtueller Keile bei bewegten Zielvolumen, wie z.B. Lungentumoren,
abgesehen werden. Gating stellt bei offenen und allen Keilfilterfeldern
annähernd den Ruhezustand in der Dosisverteilung wieder her.
09.9
The Online Study Program “Master of Advanced Physical Methods
in Radiotherapy“
1,2
3
2
4
4
4
O. Jäkel , J. Debus , W. Schlegel , T. Hetz , M. Schäfer , C. Mainka ;
Dep. Radiation Oncology, University Heidelberg, Heidelberg, Germany,
2
Deutsches Krebsforschungszentrum, Abt. Medizinische Physik,
3
Heidelberg, Germany, Dep. Radiation Oncology, Heidelberg, Germany,
4
Heidelberg University, Postgraduate Scientific Studies, Heidelberg,
Germany.
1
Abbildung 3: Mit verschiedenen Detektoren gemessene Outputfaktoren
am Siemens KD Linearbeschleuniger bei einer Photonenenergie von
6MV-X.
09.8
Welchen Einfluss üben die konkurrierenden Target- und
Blendenbewegungen auf die zweidimensionale Dosisverteilung von
dynamischen Keilfilterfeldern ohne und mit Gating aus?
1
2
3
2
A. Block , J. Lenz , E. Radtke , B. Spaan ;
1
Institut für Medizinische Strahlenphysik, Klinikum, Dortmund, Germany,
2
Experimentelle Teilchenphysik E5, Technische Universität, Dortmund,
3
Germany, Institut für Experimentalphysik 1, Ruhr-Universität, Bochum,
Germany.
Zielsetzung: Der Einfluss der konkurrierenden Blenden- und
Targetbewegungen auf die zweidimensionale Dosisverteilung von
dynamischen Keilfilterfeldern soll untersucht und mit offenen und
mechanischen Keilfilterfeldern verglichen werden. Des Weiteren soll der
Gatingeffekt auf die jeweiligen Dosisverteilungen gemessen werden. Mit
einer einfachen mathematischen Modellierung sollen die gefundenen
Trends in der Isodosenverteilung beschrieben werden.
Methodik: Die Untersuchungen wurden am Clinac 2100C/D, der mit
dem Enhanced Dynamic Wedge (EDW) und für atemgetriggerte
Bestrahlungen mit dem RPM-System (alles Fa. Varian) ausgerüstet ist,
bei den Photonenenergien 6 MV und 15 MV durchgeführt. Die
Dosisverteilung wurde mit dem 2D-Array MapCheck 2 (Fa. SunNuclear,
2
1527 Halbleiterdetektoren, aktive Detektorfläche 0,64 mm , max.
Feldgröße von 32 cm x 26 cm) gemessen. Die Patientenbewegungen
wurden mit dem Hochpräzisionsmesstisch MotionSim (Fa. Sun Nuclear)
durch ein periodisch sinusförmiges Bewegungsmuster (Amplitude 1,1
cm, Periode 6 Sekunden) simuliert. Die Feldgröße betrug 10 cm x 10
cm, die Keilfilterwinkel 15°, 30° und 45°.
Ergebnis: Bei den offenen Feldern ist der Abstand der 90%-Isodosen
93 mm (6 MV) bzw. 92 mm (15 MV). Beim bewegten Target
verschmälern sich die 90%-Isodosen auf 84 mm. Unter
Gatingbedingungen wird mit Verringerung der Gatingamplitude bzw. des
Duty Cycles (DC) der Abstand wieder größer, auf 86 bzw. 85 mm (DC
64%), 91 mm (DC 35%), 95 mm (DC 12%). Ab der 50%-Isodose
verbreitert sich der Abstand. Der Isodosenabstand bei den
mechanischen KF ist aufgrund des steilen Dosisgradienten sehr robust
gegenüber Bewegungen (Abweichung maximal 1 - 2 mm). Eine
Messreihe bei fortlaufender Targetbewegung führt beim dyn. KF bei 5
Messungen zu Verbreiterungen von 4 und 11 mm und in den anderen 7
Messungen zu Verschmälerungen zwischen 4 und 15 mm der 90%Isodosen. Unter Gatingbedingungen nähert sich der 90%-
Due to the enormous technical and scientific advancement of radiation
oncology in the last decades, there is an increasing need for education
and training of medical physicists in the various specialized areas. While
most existing master programs in medical physics are aiming at an
introduction into the basic concepts, there are currently very few
academic programs offering an in depth training of advanced techniques
like intensity modulated radiotherapy, image guided radiotherapy and
proton and ion beam therapy, as well as the connected quality
assurance and dosimetry concepts.
The University of Heidelberg is trying to fill that gap and moreover to
adapt to the needs of extra-occupational training of professional medical
physicists, offering an advanced and flexible adult learning program. The
master program for Advanced Physical Methods in Radiotherapy is
designed as a study course which is mainly delivered online, so that it
can be followed from any place worldwide and adapted to the individual
time constraints. The course is designed for graduates in physics or
biomedical engineering with a clear background in medical physics and
two years working experience. It will allow postgraduate extraoccupational education and training. The program will accept new
students every winter semester. The course is accredited by AQUIN.
Recognition through the DGMP, EFOMP and CAMPEP is envisaged.
The program concentrates on modern treatment techniques, like IMRT,
IGRT and radiotherapy with proton and ion beams. It is supplemented
with an advanced course on anatomy, an update of modern imaging
techniques as well as special quality assurance and dosimetrical
methods needed for the new radiotherapy modalities. The course is
modular and consists of online phases based on the “Moodle” software
platform, few attendance phases, practical training phases and a master
thesis. The training is done by a unique team of outstanding lecturers
from the University of Heidelberg, the German Cancer Research Center
(DKFZ), the Heidelberg Ion Beam Therapy center (HIT) and cooperating
centers like RMH in London, MGH in Boston, GSI Darmstadt, PSI
Villigen and others. The teachers all have long-lasting teaching
experience, research skills and practice in clinical application of modern
radiotherapy techniques. Many of them have been pioneers in the
development and clinical implementation of these new techniques during
the last decades.
Practical courses offer the possibility to directly work with the latest
equipment like Tomotherapy units, on board imaging for IGRT and
scanning proton and carbon ion beams. The master thesis may either be
performed directly at one of the contributing institutions (University
Hospital, DKFZ, HIT), at the participants home institution or at one of our
partner institutions like GSI, University of Marburg, MGH or MDACC
(Houston), while still being under supervision of the team in Heidelberg.
37
The course offers participants the possibility to learn about state of the
art in radiotherapy. The master degree from Heidelberg University will
provide new professional perspectives and possibilities to the
participants. It will also contribute to the education of the many
professionals, which will be needed in all modern centers for radiation
oncology in Germany and worldwide.
09.10
Situation of Medical Physicists in Switzerland - a Self Assessment
1
2
3
4
J. Ray , L. André , A. Pfäfflin , S. Klöck ;
1
Service de Radio-Oncologie / Hôpital de Sion, Sion, Switzerland,
2
3
Radio-Onkologie Lindenhofspital, Bern, Switzerland, Bildungszentrum
4
Gesundheit Basel-Stadt, Basel, Switzerland, UniversitätsSpital Zürich,
Zürich, Switzerland.
Summary: With the aim to evaluate the status and needs of its
members and to adapt its strategy correspondingly, the former Swiss
Professional Association of Medical Physicists (SPAMP) conducted a
survey of its membership actual position and daily concerns, self
reflection and expectations for the future. The professional affairs
committee of the Swiss Society of Radiobiology and Medical Physics
(SSRMP) as the successor of SPAMP analyzed the results, which are
presented here.
Materials and Methods: End of 2009, all physicists of SSRMP were
invited to participate in an electronic survey developed by a small
working group. The survey consisted of 65 questions investigating
various topics of the daily professional conditions of a medical physicist
working in Switzerland. Expectations and actual positions were surveyed
along with their relationships to other coworkers (Part 1). Global
satisfaction was evaluated based on the expected and actual duties and
salary (Part 2). Further questions were asked (Part 3), for example about
the organizational structure of SSRMP, its member needs, and how
medical physics education could be developed in Switzerland.
Results: 64 took part out of 161 sent invitations. 86 of them opened the
questionnaire and mainly “medical physicists”, working in clinical
environement answered. Involvement was not equally for all three parts:
only 49 people took the time to answer the questions about the future.
Position: Overall, a fairly high global satisfaction is measured despite
recurrent management and resources related bothers. Problems are
seen nearly equally distributed - about 30% - on “not enough time to do
the job”, “acknowledgement” and “management”. More than 50% would
delegate mainly periodical quality assurance tasks to others, mainly
radiographers. 41% are not satisfied with their salary. 50% would aim at
a position with salary and workload equivalent to a physician. 86% feel
valued by other professional coworkers in general. About 44% have not
a medical physicist as direct chief. 80% still recommend medical physics
to young scientists as an attracting profession.
Education: 55% of the participants state that the working time dedicated
for continuous education is fitting their expectations. Only 32% got their
SSRMP certification based on an MAS at ETH Zurich or as MSc of a
foreign University, the others had individual ways or foreign
certifications. As a plan for setting up education in medical physics,
building up two faculties of medical physics in Switzerland launching an
MSc course each is supported. But 28% do not see any potential in
residence positions for MPs in training.
Future: Concerning their community, 90% confirm the needs for a
dedicated scientific platform and a strong professional representation.
In the meantime the professional society of medical physics SPAMP was
dissolved and transferred to the SSRMP committee of professional
affairs. The survey strengthened the executive committee in reorganizing
SSRMP structures in a way that education and professional affairs
became integrative and institutional parts of the society besides science.
The national professional surveys will be carried on and plans for setting
up an education scheme in medical physics will continued to be pursued.
Session 10: Audiologie
10.1
CE Lecture - Basisvortrag: Hören mit zwei Ohren - Wie funktioniert
es und was müssen Hörhilfen dafür leisten?
B. Kollmeier;
Kompetenzzentrum HörTech, Hörzentrum Oldenburg, Fraunhofer
Projektgruppe HSA und Universität Oldenburg, Oldenburg, Germany.
Früher hinkten Hörhilfen ihren audiologischen Anforderungen hinterher heute ist es fast umgekehrt: Dank der hohen Miniaturisierung können in
modernen Hörgeräten viel mehr Algorithmen und AnpassungsParameter individuell eingestellt werden, als sinnvoll spezifiziert werden
kann. Auch die drahtlose Verbindung zwischen den Hörgeräten an
beiden Ohren bietet prinzipiell eine Unterstützung des beidohrigen
(binauralen) Hörens. Dennoch ist der erzielbare Benefit durch die
Versorgung selbst mit den aktuellsten Hörgeräten für den individuellen
Patienten begrenzt - woran liegt das? Wie sollen zukünftige
Generationen von Hörgeräten und Hör-Implantaten den natürlichen,
ohne Hörstörung zu erwartenden Hör-Eindruck beim individuellen
Patienten wiederherstellen? Dieser Beitrag gibt einen Überblick über
Ansätze zum binauralen Hören, seine möglichen Störungen und die
zugehörigen Funktion technischer Hörhilfen, die zur Kompensation oder
zum Ersatz dieser Defizite notwendig ist: Die Diskrimination interauraler
(d.h. zwischen beiden Ohren auftretender) Zeit- und Pegelunterschiede
und die zugehörige Lokalisations-Auflösung kann durch interaurale
Verstärkung unterstützt werden. Bei der absoluten Lokalisation z.B. in
der Medianebene oder zur Vermeidung von vorn- hinten
Verwechslungen ist die adäquate spektrale Darstellung von Bedeutung.
Beim „Cocktail-Party-Effekt“, d.h. der Sprachdiskrimination bei störenden
Umgebungsgeräuschen und Nachhall, der wesentlich durch das
binaurale Hören unterstützt wird, können bisher nur Algorithmen zur
gezielten Verbesserung des Signal-Rauschabstandes helfen (z.B.
Mikrophonarrays, Richtungsfilterung, externe Mikrophone). Zukünftige
binaurale Hörhilfen sollten durch bessere Modellierung des Raums,
durch adäquate Modellierung der binauralen Verarbeitung und durch ein
quantitatives
Verständnis
der
binauralen
StörschallUnterdrückungsmechanismen zu einer wirksamen Hör-Unterstützung
auch in akustisch „schwierigen“ Szenarios gelangen.
10.2
State-of-the-art-Vortrag: Bilaterale Versorgung mit Hörgeräten:
Theorie und Praxis
M. Kinkel;
KIND Hörgeräte, Burgwedel, Germany.
Das binaurale Hören bildet eine wesentliche Voraussetzung für das
räumliche Hören und das Richtungshören und ist damit unabdingbar für
das Sprachverstehen in komplexen und lärmbehafteten Hörsituationen.
Viele
Schwerhörige
leiden
besonders
unter
ungenügenden
Hörleistungen, besonders unter einem reduzierten Sprachverstehen in
solchen Hörsituationen. In der Praxis liegt in den meisten Fällen eine
symmetrische, beide Ohren gleichermaßen betreffende Schwerhörigkeit
vor. Diese Fälle sollten möglichst auch mit zwei Hörgeräten versorgt
werden. Wenn die Signalverarbeitung der Hörgeräte unabhängig
voneinander ist, spricht man von einer "bilateralen" Versorgung.
Mittlerweile ist auch eine "binaurale" Versorgung möglich, bei der beide
Hörgeräte drahtlos gekoppelt werden. Abhängig von der Bandbreite der
Verbindung können zunehmend komplexe SignalverarbeitungsStrategien verwirklicht werden. Daraus ergeben sich für den Nutzer
zusätzliche Vorteile von der Bedienung bis hin zum Hören in speziellen
Hörsituationen. In diesem Beitrag werden die technischen Grundlagen
beider Versorgungsformen und die daraus entstehenden Vorteile für das
Hören in komplexen Hörsituationen dargestellt und anhand von Daten
aus Feldstudien aufgezeigt, welche Vorteile sich dabei im täglichen
Leben ergeben.
10.3
Verbesserungspotentiale bei der bilateralen Versorgung mit
Cochlea-Implantaten
V. Hamacher;
Advanced Bionics GmbH, Hannover, Germany.
Für viele hochgradig schwerhörige und ertaubte Personen bietet die
bilaterale Versorgung mit Cochlea-Implantaten (CI) gegenüber dem
unilateralen Fall deutliche Verbesserungen in Bezug auf die
Lokalisationsfähigkeit und die Sprachverständlichkeit im Störgeräusch.
Zudem wirkt die bilaterale Stimulation der Deprivation der neuralen
Verarbeitungsmechanismen im Gehör entgegen.
38
Die verbesserte Lokalisationsfähigkeit mit zwei CIs beruht hauptsächlich
auf der Auswertung von interauralen Pegeldifferenzen (ILD), während
interaurale Laufzeitdifferenzen (ITD) in der Regel wenig beitragen, was
unter anderem darauf zurückzuführen ist, dass die hüllkurvenbasierten
und interaural nicht synchronisierten Stimulationsstrategien die zeitlichen
Informationen in den bilateralen Stimulationssignalen erheblich
reduzieren.
Um bei bilateraler CI-Versorgung eine gute Lokalisationsfähigkeit zu
ermöglichen, ist es also zunächst wichtig, dass die in den CISprachprozessoren zur Umrechnung der akustischen Eingangssignale
in die elektrischen Stimulationsmuster eingesetzten Kompressoren die
ILDs möglichst wenig verändern. Hinzu kommt, dass in Zukunft mehr
und mehr die bei Hörgeräten etablierten Algorithmen zur
Vorverarbeitung der Sprachsignale auch in CI-Sprachprozessoren zum
Einsatz kommen werden. Dabei handelt es sich beispielsweise um
adaptive Direktionalmikrofone und Algorithmen zur Unterdrückung
stationärer und impulshafter Störsignale. Auch hier ist es wichtig, diese
Algorithmen so zu implementieren, dass die ILDs und ITDs möglichst
wenig verzerrt werden.
In diesem Beitrag werden über technische und klinische Studien zu
diesem
Problemfeld
berichtet
und
es
werden
technische
Verbesserungspotentiale
für
zukünftige
CI-Sprachprozessoren
vorgestellt und diskutiert. Studien haben gezeigt, dass bei bilateraler CIVersorgung die Verbesserung des Sprachverstehens im Störgeräusch
vorrangig auf der Ausnutzung von Kopfabschattungseffekten bei
asymmetrischen Hörsituationen („Better-Ear Effect“) beruht, während der
binaurale Demaskierungseffekt („Binaural Squelch“) bei räumlich
getrennten Nutz- und Störschallquellen deutlich schwächer ausfällt als
bei Normalhörenden und Hörgeräte-Trägern.
Daher
bieten
leistungsfähige
binaurale
Algorithmen
zur
Störgeräuschbefreiung, die auf einem hochratigen Datenaustausch
zwischen beiden Sprachprozessoren basieren, für die bilaterale CIVersorgung ein sehr grosses Verbesserungspotential. Es kann davon
ausgegangen werden, dass der Nutzen vergleichbar wäre mit dem für
Hörgeräte-Träger, für die solche Technologien schon erfolgreich
angeboten werden (StereoZoom und ZoomControl in Phonak Ambra
Hörgeräten).
Bei StereoZoom handelt es sich um ein binaurales BeamformingSystem, das auf jeder Seite aus dem ipsilateralen Mikrofonsignal und
dem drahtlos empfangenen kontralateralen Mikrofonsignal ein neues
Signal berechnet, das eine höhere Direktivität und damit bessere
Störschallunterdrückung hat, als das mit einzelnen unverkoppelten
Hörgeräten möglich wäre.
ZoomControl adressiert Hörsituationen, in denen das Nutzsignal nicht
von vorne einfällt, sondern seitlich oder von hinten, wie beispielsweise
bei einer Unterhaltung im Auto. Durch eine geeignete automatische
Steuerung der Richtcharakteristiken auf beiden Seiten und die gezielte
Übertragung des Audiosignals von der Seite mit dem besseren
Signalstörabstand auf die andere Seite wird die Richtungssensitivität des
Gesamtsystems in eine per Fernbedienung wählbare oder automatisch
bestimmte Hörvorzugsrichtung gelenkt.
Beide binaurale Ansätze werden im Detail vorgestellt und anhand von
Studienergebnissen wird das Anwendungspotential für die bilaterale CIVersorgung, aber auch für den bimodalen Fall mit akustischer
Stimulation des kontralateralen Restgehörs, diskutiert.
10.4
Lokalisation mit CI unter dem Einfluss von verschiedenen
Signalvorverarbeitungen
A. Mair;
Univ.Klinik für Hals-Nasen-Ohren, Salzburg, Austria.
Ziel: Signalvorerarbeitungen sollen das Hören mit CI in
unterschiedlichen akustischen Umgebungen trotz des eingeschränkten
Dynamikbereichs
für
elektrische
Stimuli
zu
ermöglichen.
Pegelabhängige
Verstärkung,
automatische
Kontrolle
der
Mikrofonempfindlichkeit oder selektive Störlärmunterdrückung durch
adaptives Richtmikrofon sind Beispiele für solche Signalverarbeitungen.
Es ist anzunehmen, daß diese in beiden Sprachprozessoren unabhängig
arbeitenden Algorithmen die Lokalisation durch Veränderung des
Schlüsselreizes - die interaurale Level-Differenz (ILD) - mehr oder
weniger stark beeinflussen. Durch diese Untersuchung soll eine
Grundlage
für
die
Empfehlung
des
Einsatzes
dieser
Vorverarbeitungsstrategien gewonnen werden.
Design: die von einem Freedom-Sprachprozessor abgegebenen Stimuli
werden mit der software sCILab (Lai W.K., Dillier N.) ausgelesen und
bilden die Datenbasis für die Erfassung der interauralen
Pegelunterschiede unter den Bedingungen unterschiedlicher Pegel des
Signals, unterschiedlicher Richtungen des Signals und 3
Signalvorverarbeitungen: ADRO, NOISE (=ADRO + Autosensitivity) und
BEAM (adaptives Richtmikrofon + ADRO + Autosensitvity), die als
'SmartSounds' in aktuellen Sprachprozessoren der Fa. Cochlear
implementiert sind. Die Messungen wurden in Ruhe und im
Störgeräusch durchgeführt.
Resultate: durch die Signalvorverarbeitung werden die ILD weitgehend
bewahrt. Insbesondere im Störgeräusch kann die Hörbarkeit der Signale
wesentlich verbessert werden.
10.5
Klinische und technische Aspekte bei bilateraler Cochlea
Implantation
P. K. Schleich;
MED-EL Worldwide Headquarters, Innsbruck, Austria.
Seit 1996 wurden tausende Patienten mit beidohrigem Hörverlust
bilateral mit MED-EL Cochlea Implantaten (CI) zur Rehabilitation des
binauralen Hörens versorgt. Etwa ein Drittel davon sind Kinder.
Etliche Studien untersuchten seitdem, wie binaurale Verarbeitung mit
CIs möglich ist, und welche Vorteile z.B. für das Sprachverständnis in
störbehafteten Umgebungen zu erwarten sind. Weiters wurde die
Fähigkeit Schallquellen zu lokalisieren, sowie im Speziellen die
Entwicklung dieser Fähigkeit bei Kindern untersucht. Bei Kindern stellen
sich die Fragen nach kritischen Altersperioden in der Reifung des
auditorischen Systems und dem Einfluss der Dauer zwischen erster und
zweiter Implantation. Sprachtests, Elektrophysiologische Messungen
sowie die Erhebung der Sprachentwicklung von Kindern mit
unterschiedlichen Implantationsaltern und Dauern zwischen zwei
Implantaten geben Hinweise auf kritische Perioden.
Die meisten, der erwähnten klinischen Untersuchungen wurden bisher
mit Stimulationskonzepten durchgeführt, die primär die Einhüllende des
akustischen Signals kodieren. Derartige Systeme erlauben unter
Voraussetzung eines Abgleichs der CI Einstellungen die Kodierung von
Interauralen Pegeldifferenzen (ILD, engl. interaural level difference).
Bilateral CI Benutzer sind zumindest teilweise in der Lage, in den
Einhüllenden kodierte Interaurale Laufzeiten (ITD, engl. interaural time
difference) zur Lateralisation von Schallreizen zu benutzen. Die starke
perzeptive Präferenz von ILDs dürfte auch in der Art der bisher
untersuchten Stimulationskonzepte begründet sein.
Neue Stimulationskonzepte, wie z.B. FS4 und FS4p werten zusätzlich
zur Einhüllenden des akustischen Signals auch die zeitliche Feinstruktur
tieffrequenter Signalkomponentnen aus. Stimulationspulse werden dabei
synchron zu Nulldurchgängen in tieffrequenten Filterausgängen
appliziert. Aktuelle Fragestellungen umfassen unter anderem die
Kodierung von ITDs mit neuen Stimulationskonzepten und die damit
verbundene akustische Synchronisierung von unabhängig arbeitenden
CI Systemen.
10.6
Schallquellenlokalisation in Vertikalebenen bei CochleaimplantatTrägern
1
1
2
P. Majdak , B. Laback , M. Goupell ;
Austrian Academy of Sciences/Acoustics Research Institute, Wien,
2
Austria, University of Wisconsin-Madison/Waisman Center, Madison,
United States.
1
Träger von derzeitigen Cochleaimplantaten (CIs) können bis zu einem
gewissen Grad Schallquellen entlang der links/rechts Dimension
lokalisieren. Demgegenüber ist die Lokalisation entlang der vertikalen
Ebenen (vorne/hinten/oben/unten) wegen unzureichender Übertragung
der relevanten Information erschwert. Im akustischen Gehör wird die
Lokalisation in den Vertikalebenen durch die an den Ohrmuscheln
verursachte spektrale Färbung der eintreffenden Signale ermöglicht.
In diesem Vortrag werden grundlegende Fragen zur Möglichkeit der
Lokalisation in den Vertikalebenen mit CIs besprochen. Zuerst wird die
Fähigkeit von bilateralen CI-Trägern zur Lokalisation im 3D-Raum unter
Verwendung der klinischen CI-Systeme vorgestellt. Wie erwartet ist die
Lokalisation in den Vertikalebenen unter realistischen Bedingungen (bei
zufälligem Signalpegel) deutlich schlechter als bei Normalhörenden.
Anschließend wird die für die Sprachverständlichkeit mit einem 12Kanal-CI notwendige Spektralkonfiguration besprochen. Ausreichende
Sprachverständlichkeit tritt mit Frequenzen bis zumindest 3 kHz und
acht Kanälen auf, womit vier Kanäle für die Kodierung spektraler
Richtungsinformation zur Verfügung stehen. Im nächsten Schritt werden
Resultate zur Untersuchung der Fähigkeit zur Unterscheidung
verschiedener Spektren besprochen - eine Voraussetzung für die
Lokalisation in den Vertikalebenen. Während alle CI Träger prinzipiell
sensitiv für spektrale Spitzen und Täler waren, nahm die Sensitivität bei
zufälliger breitbandiger Pegelvariation dramatisch ab. Demgegenüber
sind Normalhörende auch mit Pegelvariation sensitiv. Da im akustischen
Gehör sowohl spektrale als auch zeitliche Signalmerkmale zur
Verfügung stehen - letztere wurden im CI-Experiment ausgeschaltet könnten zeitliche Merkmale eine Rolle spielen. Die nächste Studie
39
untersuchte die Anzahl der für die Lokalisation in den Vertikalebenen
notwendigen Frequenzkanäle. Normalhörende zeigten bei akustischer
CI-Simulation nach audio-visuellem Training robuste Lokalisation mit 12
Kanälen also nur vier Kanälen oberhalb von 4 kHz. In der letzten Studie
wurde die Adaptationsfähigkeit des auditorischen Systems bezüglich
einer Kompression der spektralen Richtungsinformation zu tieferen
Frequenzen getestet, entsprechend der reduzierten Obergrenze der
elektrischen Stimulation. Fünfzehn Normalhörende absolvierten ein
Lokalisationstrainingsexperiment mit zweistündigen täglichen Einheiten
über den Zeitraum von drei Wochen. Nach anfänglich stark erhöhtem
Lokalisationsfehler verbesserte sich die Lokalisationsleistung der
Probanden stetig, erreichte aber am selbst am Ende der
Trainingsperiode nicht die Ausgangsleistung.
Die Kombination der Ergebnisse zeigt, dass die Lokalisation in den
Vertikalebenen
bei
adäquater
Übertragung
der
spektralen
Richtungsinformation für Träger zukünftiger CI-Systeme möglich sein
könnte. Während unsere Ergebnisse die Möglichkeit zur Anpassung der
Richtungsinformation an den im elektrischen Gehör zur Verfügung
stehenden Spektralbereich zeigen, liegt eine wichtige zukünftige
Herausforderung in der Verbesserung der Fähigkeit der CI-Träger zur
Unterscheidung verschiedener Spektren, möglicherweise durch
Einbindung zeitlicher Signalinformation.
Session 11: Protonen- und
Ionentherapie: Neue Anlagen und
Technologien
11.3
Inbetriebnahme des Partikeltherapie-Zentrums in Marburg
1
1
2
2
U. Weber , P. Grübling , K. Zink , R. Engenhart-Cabillic ;
1
2
Rhön-Klinikum AG, Marburg, Germany, Klinik für Strahlentherapie und
Radioonkologie, Marburg, Germany.
Am Universitätsklinikum Marburg steht das weltweit dritte klinische
Zentrum zur Behandlung von Tumoren mit Protonen und
Kohlenstoffionen in der finalen Inbetriebnahmephase. Das PartikelTherapie-Zentrum befindet sich in unmittelbarer Nachbarschaft zu den
Kliniken des Universitätsklinikums auf den Lahnbergen.
Das mit vier Therapieräumen ausgestattete Partikel-Therapie-Zentrum
soll eine Kapazität für jährlich mehr als 2.000 Patienten bieten. Die
hierfür erforderlichen Investitionsmittel von über 100 Mio. Euro erbringt
die RHÖN-KLINIKUM AG ohne Unterstützung durch die öffentliche
Hand.
Ausstattung: Das Partikel-Therapie-Zentrum Marburg wird mit vier
Bestrahlungsräumen für die Bestrahlung mit Protonen und KohlenstoffIonen ausgestattet.
Die Bestrahlung erfolgt aus festen Einstrahlrichtungen: 3 mal horizontal
und 1 mal unter 45 ° von oben. Es kommt an jedem Bestrahlungsplatz
das sogenannte Raster-Scanning-Verfahren zum Einsatz. Es ermöglicht
eine exakte Abrasterung des Tumorvolumens. Dies wird erreicht durch
die Kombination der präzise gesteuerten Eindringtiefe der Partikel über
die Synchrotron-Energie mit der seitlichen magnetischen Ablenkung des
Partikelstrahls.
Jeder der Behandlungsräume verfügt über einen robotergeführten
Patientenlagerungstisch, der mit seinen sechs Bewegungsfreiheitsgraden die für die Partikeltherapie notwendige hohe
Positioniergenauigkeit
des
Patienten
ermöglicht.
Für
die
Lagerungskontrolle und Lagerungskorrektur (IGRT) stehen an jedem
Bestrahlungsplatz robotergeführte Röntgen-Imager zur Verfügung.
Status: Die Bauarbeiten haben im August 2007 begonnen. 2008 wurde
das Gebäude mit den ersten Beschleuniger-Komponenten bezogen.
Anfang 2010 konnten die ersten Protonen und Kohlenstoffstrahlen in die
Bestrahlungsräume geleitet werden. Seit 2011 sind alle Komponenten
der Anlage eingebaut und betriebsbereit. Der Beschleuniger kann den
kompletten erforderlichen Parameterraum für die RasterscanningBestrahlungen erzeugen. Dies umfasst:
• ca. 300 Energieschritte für Reichweiten von 20-300 mm in Wasser in
Abstandsschritten von 1mm Eindringtiefe mit Energien von 50 -230 MeV
12
für Protonen bzw. 80-430 MeV/u für C.
• zu jeder Energie 15 verschiedene logarithmisch gestaffelte
Intensitätsstufen
• zu jeder Energie 5 Stufen für die Strahlbreite des Pencilbeams von ca.
12
4-12 mm für C und 8-30 mm für die Protonen.
Derzeit (Mai 2011) werden am PTZ noch eine Vielzahl an Tests und
Feinjustierungen vorgenommen. Dies beinhaltet z.B. das Feintuning an
den Beschleunigereinstellungen für einen optimalen Ablauf beim
Rasterscanning. Raster-Scanning-Bestrahlungen werden umfangreich
mit klinischen Planstudien auf Basis von realen Patienten-CTs getestet.
Für Ende dieses Jahres werden die klinische Betriebgenehmigung (nach
StrSchV) und der Abschluss der CE-Zertifizierung für die Anlage
erwartet, so dass danach die Übergabe vom Anlagenhersteller (Siemens
AG) an die Klinik erfolgt und in 2012 der Patientenbetrieb erfolgen kann.
40
Verifikations- und Qualitätssicherungs-Techniken sowie für die
Durchführung
strahlenbiologischer
Experimente
an
Laser
beschleunigten Protonenstrahlen ein bisher weltweit nicht vorhandenes
Umfeld bieten.
11.5
Novel imaging techniques for ion beam therapy: investigations on
carbon ion radiography and tomography
1,2
Abb.: Einstellung der Strahlbreiten für
verwendeten Energiebereich
Carbon-Ionen
über den
11.4
Die Technologieplattform für translationale Forschung in der
Protonentherapie am OncoRay Dresden
1,2
2
2
1
2
W. Enghardt , M. Bussmann , T. Cowan , U. Dersch , F. Fiedler , J.
1,2
1
1
2
2
Pawelke , R. Perrin , S. Pieck , U. Schramm , R. Sauerbrey , M.
1
Baumann ;
1
2
Technische Universität Dresden, Dresden, Germany, HelmholtzZentrum Dresden-Rossendorf, Dresden, Germany.
Gemäß ihrer Wechselwirkung mit (belebter) Materie sollten Protonenund Ionenstrahlen das Potenzial besitzen, den Erfolg der
Strahlentherapie deutlich zu erhöhen. Begründet wird dies durch
physikalische Vorteile gegenüber konventionellen Strahlenarten
(Photonen, Elektronen), welche i. a. zu einer reduzierten
Normalgewebsdosis und zur Möglichkeit der Dosiseskalation im Tumor
führen. Im Falle der leichten Ionen kommt zu diesen physikalischen
Vorteilen eine Erhöhung der relativen biologischen Wirksamkeit, welche
bei adäquater technologischer Umsetzung der Strahlführung (Rasteroder Spotscanning) nahezu auf das Tumorvolumen begrenzt werden
kann. Bisher konnten diese physikalisch und biologisch offenkundigen
Vorteile der Partikelstrahlen für viele Bestrahlungssituationen nicht in
verbesserte Tumorheilung umgesetzt werden.
Dafür sind drei Gründe anzusprechen: (1) Die in der Partikeltherapie
angewendeten Behandlungs- und Qualitätssicherungstechniken wurden
zum überwiegenden Teil für die konventionellen Therapie an
medizinischen Elektronen-Linearbeschleunigern entwickelt und von dort
übernommen. Letzteres erscheint nicht adäquat, weil Dosisverteilungen
von Partikelstrahlen, im Gegensatz zu Photonenstrahlen, nicht robust
gegen Ungenauigkeiten in der gesamten Kette der Strahlentherapie von
der CT-Diagnostik bis zur Dosisapplikation sind. (2) Die Zahl der bisher
weltweit an technologisch ausgereiften Protonen- oder IonenTherapieanlagen in qualitativ hochwertigen klinischen Studien
behandelten Patienten ist nach wie vor klein, so dass oftmals statistisch
gut gesicherte Therapieergebnisse nicht vorliegen. Generelle
Anforderungen der heutigen evidenzbasierten Medizin, insbesondere
auch randomisierte Studien, finden nur geringe Berücksichtigung. (3) Die
unter (1) und (2) genannten Gründe folgen zu einem großen Teil aus
den hohen Investitions- und Betriebskosten für Partikeltherapie-Anlagen,
welche jene mit konventioneller Bestrahlungstechnologie um ca. eine
Größenordnung übersteigen.
Diese Analyse definiert die medizinischen, strahlenbiologischen und
physikalisch-technischen Arbeitsfelder der im Aufbau befindlichen
Hochtechnologieplattform am Nationalen Zentrum für Strahlenforschung
in der Onkologie - OncoRay, Dresden: (1) Die Entwicklung von
Technologien, welche auf die der Partikeltherapie inhärenten Präzision
zugeschnitten sind (Bewegungskompensation, Bildführung, dreidimensionale Dosislokalisation, ortsaufgelöste in-vivo Dosimetrie in
Echtzeit). (2) Den Einschluss aller Patienten in klinische Studien. (3) Die
Entwicklung neuartiger auf der Laser-Teilchenbeschleunigung
beruhender Partikeltherapie-Anlagen, die kompakt und kostengünstig
sind.
Diese klinischen und wissenschaftlichen Zielstellungen bestimmen die
Auslegung der Anlage. Sie wird auf dem Gelände des
Universitätsklinikums Carl Gustav Carus Dresden errichtet und in die
bestehende Klinik und Poliklinik für Strahlentherapie und Radioonkologie
integriert. Sie wird mit einer konventionellen Zyklotron basierten
Protonen-Bestrahlungsanlage (Hersteller: Fa. IBA, Louvain-la-Neuve,
Belgien) ausgerüstet. Der Protonenstrahl bedient vorerst einen
klinischen Bestrahlungsbunker mit isozentrischer Gantry, ausgestattet
mit einer universellen Strahlführung für passive und aktive
Bestrahlungsfeld-Formierung. Ferner wird für experimentelle Arbeiten
der Protonenstrahl in einen Experimentalbunker geführt. Auf dessen
Dach wird ein Reinraum für einen Dioden gepumpten HochintensitätsLaser der Petawatt-Klasse errichtet. Das Laserlicht wird in den
Experimentalbunker geführt, so dass dort sowohl konventionell als auch
Laser beschleunigte Protonenstrahlen zur Verfügung stehen werden.
Dies wird für die Entwicklung und Validierung dedizierter
Strahlführungssysteme, dosimetrischer Messverfahren, Echtzeit-
2,3
2,3
2,3
4
2,3
I. Rinaldi , S. Brons , O. Jäkel , R. Panse , B. Voss , K. Parodi ;
German Cancer Research Center (DKFZ, Dept. of Medical Physics in
2
Radiation Oncology), Heidelberg, Germany, Heidelberg Ion Therapy
3
Center (HIT), Heidelberg, Germany, University Hospital Heidelberg
(Dep. Radiation Therapy and Radiation Oncology), Heidelberg,
4
Germany, GSI Biophysics, Darmstadt, Germany.
1
In clinical practice of ion therapy treatment planning, dose calculations
and optimization are typically computed on X-ray Computed
Tomography (CTX-ray) images of the patient. From CTX-ray data the
particle ion in tissue can be calculated only with about 1-3% accuracy,
corresponding to few millimeters in some clinical cases. The main
limiting factor is the translation of the Hounsfield Units, as measured with
a CTX-ray scanner, to water equivalent path length. This translation,
presently based on semiempirical calibration curves, can cause
differences between treatment planning and treatment delivery.
Additionally, other sources of uncertainties may affect the actual range
during the fractionated course of ion therapy, thus making techniques of
in-vivo range verification highly desirable. Presently, Positron Emission
Tomography is the only clinically investigated method for this purpose.
Promising results were achieved so far by different groups, but
challenges were encountered for millimeter accurate range verification
due to limiting factors such as physiological washout, co-registration and
motion. At the Heidelberg Ion Beam Therapy Center experimental
investigations and Monte Carlo calculations are being carried out to
address the feasibility of low dose radiographic or tomographic imaging
of transmitted energetic ions. The energy loss of ions in matter is mostly
due to ionization and characterized by the stopping power, which is
dependent on the properties of the traversed material. Due to the weak
energy dependence of the stopping power of the traversed material
relative to water, radiographic images obtained at higher beam energies
than the therapeutic ones can serve for pre-treatment verification of the
planning CTX-ray-range calibration curve. In the extension to
tomographic imaging, the distribution of relative ion stopping power in
the patient can be reconstructed based on the knowledge of the BetheBloch formula and the measurement of the residual energy or range of
an energetic beam traversing the object. This volumetric information can
be directly used for treatment planning without relying on the usage of
external X-ray radiation and semiempirical calibration curves.
Additionally, ion radiographic or tomographic images could be employed
for confirmation of the patient positioning at the treatment site, with an
increased density resolution and lower dose exposure than with CTXray. Following initial promising investigations, a first prototype of a
gaseous dedicated detector system has been assembled. Detector
systems using a gaseous active volume help to minimize effects which
are strongly linked to the nature and linear energy transfer of the
traversing particles. The prototype consists of a stack of 64 parallel-plate
ionisation chambers interleaved with absorber material of low nuclear
charge in order to minimize the influence on the beam quality. The
detector has been equipped with newly acquired electronics for real-time
data acquisition during the scanned ion beam delivery. A detailed
characterization of this new experimental setup and proof-of-principle
measurements in phantoms of different complexity have been performed
with carbon ion beams and will be presented. Moreover, an overview will
be given of the additional extensive investigations being
planned/performed towards first pre-clinical experimental demonstration
of the detector feasibility for ion-based imaging in more realistic patientlike situations.
11.6
Simulation prompter Gamma-Emissionen während therapeutischer
Protonenbestrahlung
1
2
3
3
1,2
A. Müller , F. Fiedler , D. Georg , J. Hopfgartner , W. Enghardt ;
1
OncoRay – Nationales Zentrum für Strahlenforschung in der Onkologie,
2
Dresden, Germany, Helmholtz-Zentrum Dresden-Rossendorf, Dresden,
3
Germany, Universitätsklinik für Strahlentherapie, Wien, Austria.
Um den Erfolg von Strahlentherapie mit Protonen und leichten Ionen zu
gewährleisten, ist eine möglichst genaue, zuverlässige und vor allem
tumorkonformale Dosisdeposition erforderlich. Positronen-EmissionsTomografie (PET) ist momentan die einzige Methode, welche eine
qualitative in vivo Dosisabschätzung und eine quantitative
41
Reichweitenanalyse der Partikel während der Therapie erlaubt. Eine
präzise, klinischen Anforderungen genügende Korrelation der
gemessenen Aktivitätsdichte bei PET mit der deponierten Dosis ist
aufgrund der relativ langen Halbwertszeit der Positronenemitter nicht
möglich. Als Alternative zu PET wurde ein bildgebendes Verfahren auf
der Basis der infolge von Kernreaktionen zwischen den Ionen des
Therapiestrahles und den Atomkernen des bestrahlten Gewebes
emittierten γ-Strahlung vorgeschlagen. Es wird erwartet, dass in-beam
Einzelphotonen-Emissions-Tomographie (SPECT) mit einer ComptonKamera die emittierte prompte γ-Strahlung während der Therapie über
einen weiten Energiebereich detektieren kann. Mit diesem Verfahren
erscheint es möglich, die applizierte Dosis quantitativ zu bestimmen.
In dieser Arbeit wurden die γ-Emissionen während der Bestrahlung mit
Protonen mit Hilfe von Geant4 Monte-Carlo (MC) Simulationen
charakterisiert. Mit dem Bestrahlungsplanungsprogramm XiO (Elekta,
CMS) wurden mehrere realistische Bestrahlungspläne für verschiedene
klinische Indikationen erstellt, u.a. für Gehirn-, Prostata-, Lungen- und
Lebertumore. Die Bestrahlungsparameter sowie die geplanten
Dosisverteilungen und CT-Daten wurden im DICOM Format aus dem
Planungssystem extrahiert und als Eingabeparameter für die MCSimulation verwendet.
Die CT-Bilddaten erlaubten die virtuelle Voxel-basierte Nachbildung der
Patienten innerhalb von Geant4. Hierbei wurden den HounsfieldEinheiten (HU) mit Hilfe eines Kalibrierverfahrens unterschiedliche
Gewebe (also Materialzusammensetzungen) und Dichten zugeordnet.
Die Granulariät des Voxelgitters betrug hier ca. 1 mm innerhalb der
Schichten, und ca. 4 mm zwischen den Schichten. Die Bestrahlung mit
Protonen wurde mittels Spot-Scanning Verfahren simuliert. Für die
Korrelation
der
dimensionslosen
Strahlintensitäten
mit
den
Protonenfluenzen wurde ein Softwareverfahren entwickelt. Eine
qualitative Überprüfung der Simulationen erfolgte im Vergleich mit den
vom Bestrahlungsplanungsprogramm berechneten Dosisverteilungen.
Zusätzlich wurde die Richtigkeit der Simulation mittels einfacher
Kalibrierungspläne bestätigt.
Um die prompte γ-Strahlung aus Kernreaktionen zu analysieren, war es
notwendig - neben den elektromagnetischen Wechselwirkungen bei der
Dosisdeposition - auch die Kernreaktionen zu simulieren. Hierzu wurden
verschiedene Geant4 Physikmodelle, so genannte Physik-Listen,
verglichen. Die Simulation ist modular aufgebaut, alle Parameter können
leicht angepasst und weiter optimiert werden, zum Beispiel ist die
Verkürzung der Rechenzeit ein wichtiges Anliegen. Simuliert wurde mit
-4
einem Bruchteil von 10 der realen Teilchenzahl, was für einen
8
typischen Bestrahlungsplan ungefähr 10 Protonen entsprach. Im
Energiebereich von ca. 50 - 200 MeV wurden während der Bestrahlung
im Mittel 0,24 γ-Emissionen je Proton registriert. Die Photonen wurden
hinsichtlich ihrer räumlichen Verteilung und ihrer spektralen
Charakteristika im Bereich von 0 - 20 MeV analysiert. Die
Winkelverteilung ist weitgehend isotrop. Die simulierten γ-Fluenzen
erscheinen
ausreichend,
um
ein
Compton
basiertes
Bildgebungsverfahren zu realisieren. Um quantitative Aussagen zu
treffen und die Beziehung zur applizierten Dosis herzustellen, ist es
notwendig die Statistik der simulierten Ereignisse um mindestens einen
Faktor 10 zu verbessern. Dafür wird der MC-Code gegenwärtig
optimiert.
11.7
Ein Strahlapplikationssystem für die Therapie mit
laserbeschleunigten Teilchen
S. Schell, J. J. Wilkens;
Klinikum rechts der Isar der Technischen Universität München,
München, Germany.
In Zukunft könnte die Laser-Plasma-Beschleunigung von geladenen
Teilchen eine kostengünstige Strahlungsquelle für die Strahlentherapie
mit Protonen oder Kohlenstoffionen bieten. Diese Technologie ist jedoch
noch in ihren Anfängen, und einige Weiterentwicklungen sind nötig, bis
klinische Anwendungen möglich werden. Zum Beispiel ist zur Zeit die
maximal erreichbare Teilchenenergie noch zu niedrig um Tumore im
Menschen zu bestrahlen. Allerdings zeigen laserbeschleunigte Teilchen
auch unabhängig von der Lösung dieses Problems einige andere
Eigenschaften als konventionell erzeugte Strahlen. Einer dieser
Unterschiede liegt im Energiespektrum. Während ein Zyklotron oder
Synchrotron monoenergetische Strahlen produziert, ist das Spektrum bei
laserbeschleunigten Teilchen breiter. Mit diesem Energiespektrum kann
allerdings der für die Therapie vorteilhafte Bragg-Peak, also die relativ
genaue Lokalisierung der Dosis in einer Tiefe, nicht beobachtet werden.
Da Teilchen mit unterschiedlichen Energien ihre Bragg-Peaks auch in
unterschiedlicher Tiefe haben, ist die Dosis über einen weiten axialen
Bereich verteilt. Ohne eine Modifikation können diese Strahlen nicht an
jeder Stelle des Tumors verwendet werden.
In dieser Arbeit wird daher ein mögliches Strahlapplikationssystem für
laserbeschleunigte Teilchen (siehe Abbildung 1) untersucht. Dieses soll
die produzierten Strahlen vermessen und modifizieren bevor sie auf den
Patienten angewendet werden können. Es besteht aus mehreren
42
Teilen: die wichtigsten sind das Energie-Selektions-System, das
Partikel-Selektions-System und das Fluenz-Selektions-System. Das
Energie-Selektions-System betrifft die erwähnte Energieunschärfe.
Mithilfe von Magnetfeldern und Blenden wird das Spektrum flexibel noch
oben und unten beschnitten. Da sich im erzeugten Partikelstrahl
üblicherweise verschiedene Ionentypen befinden, ermöglicht das
Partikel-Selektions-System, das aus zusätzlichen elektrischen Feldern
besteht, das Herausfiltern der gewünschten Teilchensorte. Außerdem ist
der laserbeschleunigte Teilchenstrahl gepulst und die Anzahl der
Teilchen pro Puls könnte höher sein als für die Bestrahlung eines
speziellen Punktes im Tumor vonnöten. Daher muss das FluenzSelektions-System die Möglichkeit bieten, eine Überanzahl an Teilchen
aus dem Strahl zu entfernen. Dies kann mit einer lateralen Aufstreuung
und einer darauffolgenden Kollimation erreicht werden. Weitere
Elemente des Strahlapplikationssystems sind verschiedene Detektoren
und eine Einrichtung um den Strahl lateral zu formen oder auch gezielt
lateral auszulenken. Diese Elemente werden auf ihre Tauglichkeit für
breitere Energiespektren untersucht. Außerdem ist die Winkelverteilung
eines laserbeschleunigten Strahls weit, sodass zusätzlich mehrere
fokussierende Elemente nötig sind.
Das Zusammenspiel all dieser und weiterer Komponenten wird
untersucht. Desweiteren müssen die Methoden der konventionellen
Teilchentherapie wie zum Beispiel die Intensitäts-Modulierte-PartikelTherapie (IMPT) modifiziert werden um den neuen Gegebenheiten der
laserbeschleunigten Teilchen gerecht zu werden. Aufgrund von
Beschränkungen beim lateralen magnetischen Scannen von Teilchen
und auch aufgrund von Grenzen bei der Repetitionsrate des gepulsten
Beschleunigungsmechanismus, müssen auch neue Konzepte der
Dosisapplikation entwickelt werden.
Da laserbeschleunigte Teilchen andere Eigenschaften zeigen als
konventionell erzeugte, muss die Therapie an diese neuen Bedingungen
angepasst werden. Die hier vorgestellten Überlegungen sollen die noch
zu lösenden Probleme der Strahlführung und neue Konzepte für die
Dosisapplikation aufzeigen.
Gefördert durch das DFG Exzellenzcluster: Munich-Centre for Advanced
Photonics.
Abb. 1
Session 12: Protonen- und
Ionentherapie: Präzisionstherapie und
biologische Modellierung
12.1
Colocalization of Physical and Biological Damage in Ion
Radiotherapy Using a Fluorescent Nuclear Track Detector
1
1
2
2
3
M. Niklas , S. Greilich , C. Melzig , A. Abdollahi , M. Akselrod , J.
4
1,4
Debus , O. Jäkel ;
1
German Cancer Research Center, Division of Medical Physics in
2
Radiation Oncology, Heidelberg, Germany, German Cancer Research
Center, Junior Research Group Molecular Radiooncology, Heidelberg,
3
4
Germany, Landauer Inc., Stillwater, OK, United States, University
Hospital, Department of Radiation Oncology and Radiation Therapy,
Heidelberg, Germany.
Purpose: The first European hospital-based facility for heavy ion
radiotherapy started operation in 2009 at the Heidelberg Ion Therapy
Center (HIT). With the experience gained during the pilot project at
Gesellschaft für Schwerionenforschung mbH (GSI), Darmstadt,
Germany, more searching investigations are now being undertaken
toward wider clinical application and deeper understanding of proton and
ion therapy. So far, knowledge about the mechanisms linking physical
energy deposition and biological response caused by high-LET radiation
is still limited. Here we present a unique biodetector system for the
visualization and correlation of physical and biological processes after
irradiation with sub-micrometer resolution.
Methods: Al2O3:C,Mg fluorescent nuclear track detectors (FNTDs)
contain color centers that undergo radiochromatic transformation
depending on local energy deposition by ionizing radiation. Confocal
laser microscopy thus enables us to visualize the ion tracks. At the same
time, a monolayer of A549 cells cultured on the FNTD is studied by
means of immunofluorescence staining for cellular response, such as
double-strand breaks, and using precisely the same microscope.
Results: We were successful in coating FNTDs with A549 cells that
could be kept alive and stationary during ion irradiation, staining, and
confocal read-out. Using a Zeiss LSM 710 Confocor 3, it was possible to
record image stacks (approx. 100x100 µm² with diffraction-limited
resolution of approximately 300 nm) through the cell-layer and the
detector. We established a protocol of synchronous read-out for cell
membranes, nuclei, double-strand breaks, and ion tracks allowing for
exact colocalization.
Conclusions: With the successful development of the biodetector
system described here, a multitude of studies on the cellular
mechanisms of ion radiation therapy will become feasible. This system is
a novel tool for radiobiology. Immunofluorescence staining is not limited
to the currently used double-strand breaks indicator but can be coupled
to a broad variety of molecular markers. Furthermore, live-cell staining
could facilitate studies on matters like post-irradiation cell survival and
repair processes. Time-lapse confocal microscopy of damaged cells can
help gain insights into phenomena such as the bystander effect. For
tumor response under ion radiotherapy, these studies will be useful in
finding a more appropriate parameter than dose absorption.
12.2
Modellierung des Sauerstoffverstärkungsfaktors in Abhängigkeit
von LET und Dosis für Niedrig- und Hoch-LET-Strahlentherapie
T. Wenzl, J. J. Wilkens;
Klinik für Strahlentherapie, Technische Universität München, Klinikum
rechts der Isar, München, Germany.
Die schlechte Behandlungsprognose für Patienten mit hypoxischen, d.h.
sauerstoffarmen, Tumoren hängt in der Regel mit der verminderten
Empfindlichkeit hypoxischer Zellen gegenüber ionisierender Strahlung
zusammen. Dieser Sauerstoffeffekt wird quantitativ durch den
Sauerstoffverstärkungsfaktor (engl. oxygen enhancement ratio / OER)
ausgedrückt, der das Verhältnis der Strahlendosen beschreibt, die
benötigt werden, um das gleiche Maß an Zellüberleben unter
hypoxischen und aeroben Bedingungen zu erreichen. Der
Sauerstoffverstärkungsfaktor ist abhängig von der Art der ionisierenden
Strahlung und nimmt mit zunehmendem linearen Energietransfer (LET)
ab, was einen klinischen Vorteil von Hoch-LET-Strahlentherapie mit
Ionenstrahlen darstellen könnte. In dieser Arbeit stellen wir ein einfaches
phänomenologisches Modell für den Sauerstoffverstärkungsfaktor vor,
das die Beschreibung der klinischen Auswirkungen von OERVariationen in Abhängigkeit vom linearen Energietransfer, von der
lokalen Dosis, dem Sauerstoffpartialdruck in der Umgebung der Zelle
und dem Gewebetyp erlaubt. Dies ermöglicht auch eine Diskussion der
klinischen Konsequenzen der Dosisabhängigkeit des OER für
verschiedene Fraktionierungsschemata. Das OER-Modell ist ein
einfaches Werkzeug, um den Sauerstoffeffekt auf praktische Weise zu
quantifizieren und bietet die Möglichkeit zur Hypoxie-basierten
biologischen Optimierung in der Bestrahlungsplanung sowohl für
Niedrig-LET-Therapie mit Photonen und Protonen als auch für HochLET-Therapie mit schwereren Ionen.
Unsere Rechnungen basieren auf einer ausführlichen Analyse der in der
Literatur
vorhandenen
experimentellen
Studien,
die
den
Sauerstoffverstärkungsfaktor für unterschiedliche Zelltypen und
Strahlenarten sowie für unterschiedlichen Sauerstoffgehalt in der
Zellumgebung bestimmt haben. Wir verwenden das linear-quadratische
(LQ)
Modell
mit
seinen
zwei
gewebespezifischen
Strahlenempfindlichkeitsparametern Alpha und Beta. Um den
Zusammenhang dieser LQ-Parameter mit der Sauerstoffversorgung des
Gewebes zu beschreiben, benutzen wir Alper-Howard-FlandersAbhängigkeiten für Alpha und für die Quadratwurzel aus Beta vom
Sauerstoffpartialdruck (pO2). Außerdem wird (im klinisch relevanten
LET-Bereich) eine lineare Abhängigkeit des Parameters Alpha vom LET
und ein LET-unabhängiges Beta angenommen.
Für eine typische klinische Situation in der Ionentherapie mit einem
Kohlenstoffionen-Spread-Out-Bragg-Peak (SOBP) und einem ProtonenSOBP beträgt der Vorteil von einer Strahlentherapie mit
Kohlenstoffionen im Bezug auf den Sauerstoffeffekt nur etwa 1-15% im
Vergleich zur Niedrig-LET-Bestrahlung mit Photonen oder Protonen.
Dies liegt vor allem an dem großen Sauerstoffpartialdruckunterschied
zwischen Zellexperimenten in vitro und klinischen Werten in vivo.
Weiterhin folgt aus unserer Analyse, dass der Sauerstoffeffekt in der
klinischen Praxis nicht besonders empfindlich auf die Wahl der Dosis pro
Fraktion im therapeutisch relevanten Dosisbereich ist (dies gilt sowohl im
Niedrig- als auch in Hoch-LET-Bereich). Allerdings hängt das OERVerhalten (abnehmend, zunehmend oder konstant bleibend mit
steigender Dosis pro Fraktion) vom Gewebetyp bzw. von den
entsprechenden Alpha-Beta-Verhältnissen unter hypoxischen und
aeroben Bedingungen ab.
Gefördert durch das DFG Exzellenzcluster: Munich-Centre for Advanced
Photonics.
12.3
Radiobiologische Modelle der Schwerionentherapie im
Planungsvergleich
1,2
3
2
2
4
C. Gillmann , M. Scholz , C. P. Karger , S. Greilich , M. Ellerbrock , J.
1
4
Debus , O. Jäkel ;
1
Klinik für Radioonkologie und Strahlentherapie der Universität
2
Heidelberg, Heidelberg, Germany, Deutsches Krebsforschungszentrum
3
(DKFZ), Heidelberg, Germany, Gesellschaft für Schwerionenforschung
4
(GSI), Darmstadt, Germany, Heidelberger Ionenstrahl-Therapiezentrum
(HIT), Heidelberg, Germany.
Einleitung: In der Strahlentherapie mit Kohlenstoffionen ist die
Berechnung der biologisch effektiven Dosis während der
Therapieplanung entscheidend für die adäquate Behandlung von
Tumorpatienten. Für die Modellierung des komplexen Zusammenhangs
zwischen physikalischer Dosis und relativer biologischer Wirksamkeit
(RBW) wurde das “Local Effect Model“ (LEM) bereits für mehr als 500
Patienten eingesetzt - mit exzellenten klinischen Resultaten. Gleichzeitig
jedoch ist bekannt, dass für die aktuelle Version des “Local Effect
Models“ (LEM I) einige Diskrepanzen zwischen den Modellvorhersagen
und den experimentellen Daten bestehen. Dazu zählt insbesondere die
Überschätzung
der
relativen
biologischen
Wirksamkeit
im
Eingangsbereich (Karger 2007, Elsässer 2008). Aus diesem Grund
wurde das Modell ständig weiterentwickelt, sodass heute eine
generalisierte Version (LEM IV) zur Verfügung steht. Aufbauend auf
vorangegangenen Untersuchungen an idealisierten Geometrien führen
eine Therapieplanungsstudie durch, in der wir die von LEM I und LEM IV
berechneten RBW-gewichteten Dosisverteilungen qualitativ und
quantitativ miteinander vergleichen. Diese Planungsstudie erlaubt uns,
resultierende
Dosisparameter
mit
publizierten
Daten
aus
Patientenstudien zu korrelieren und damit die Auswirkungen eines
klinischen Einsatzes des LEM IV abzuschätzen.
Material und Methoden: Für einen realistischen Vergleich zwischen
LEM I und LEM IV führen wir eine Vorwärtsberechnung der
Dosisverteilungen
LEM
I-basierter
Patientenpläne
mit
dem
generalisierten Modell (LEM IV) durch. Unser Kollektiv beinhaltet 30
Patienten mit Schädelbasischordomen und -chondrosarkomen, die
zwischen 2002 und 2003 an der Gesellschaft für Schwerionenforschung
(GSI) in Darmstadt mit Kohlenstoffionen bestrahlt wurden. Für die
quantitative Auswertung der Therapiepläne evaluieren wir typische
klinisch relevante Parameter wie Dosiskonformität und Homogenität.
Ergebnisse: In unserer Analyse identifizieren wir quantitative
Abweichungen klinisch relevanter Dosisparameter zwischen LEM I und
LEM IV, die typischerweise in der Größenordnung von wenigen Prozent
liegen. Die mediane Dosis im Target bleibt dabei annähernd
unverändert. Im Detail jedoch beobachten wir, dass die mit LEM I
43
berechnete, konstant homogene Dosisverteilung im Tumor, für LEM IV
mit steigendem Tumordurchmesser in Einstrahlrichtung deutlich
inhomogener wird. Zudem finden wir eine Verschiebung der
Isodosislinien: Diese liegen für LEM IV deutlich enger konzentriert um
den Targetbereich als für LEM I. Für das umgebende
Temporallappengewebe hat dies zur Konsequenz, dass die Dosis in
Regionen, die sich sehr nah am Tumor befinden, im Vergleich zu LEM I
um einige Prozent erhöht ist, während wir in Regionen mehrere
Millimeter vom Target entfernt eine erniedrigte Dosis sehen. Quantitativ
bedeutet dies, dass die mediane Dosis im Temporallappen bei LEM IV
um etwa zehn Prozent reduziert ist, während die maximale Dosis, die in
mindestens einem Quadratzentimeter des Temporallappens appliziert
wurde, im Median ungefähr gleich bleibt.
Fazit: Unsere vergleichende Therapieplanungsstudie erlaubt eine
qualitative Visualisierung und eine statistische Analyse der RBWgewichteten isoeffektiven Dosisverteilungen für LEM I und LEM IV. Eine
quantitative Auswertung zeigt ähnliche Ergebnisse für klinisch relevante
Dosisparameter. Diese Therapieplanungsstudie liefert einen essentiellen
Beitrag zur aktuellen Diskussion über die zukünftige Verwendung
radiobiologischer Modelle in der Schwerionentherapie.
12.4
First clinical experience of PET-based in-vivo treatment verification
at HIT
1,2
1,2
1,2
1,2
1,2
J. Bauer , D. Unholtz , F. Sommerer , S. Combs , J. Debus , T.
1,2
1,2
2
1,2
Haberer , K. Herfarth , T. Welzel , K. Parodi ;
1
2
Heidelberg Ion-Beam Therapy Center, Heidelberg, Germany, Radiation
Oncology, Department of Radiology, Heidelberg University Hospital,
Heidelberg, Germany.
At the Heidelberg Ion-Beam Therapy Center (HIT) about 400 patients
have been treated with scanned proton and carbon ion beams since the
start of clinical operation in November 2009. In order to enable
monitoring of the highly conformal dose delivery, a commercial PositronEmission/Computed Tomography (PET/CT) scanner has been installed
“offline” next to the treatment room for post-radiation imaging. In vivo,
non-invasive confirmation of the applied treatment can be deduced from
the pattern of β+-activity produced in nuclear interactions between the
ions and the irradiated tissue.
Since the correlation between the deposited dose and the produced
activity is not straightforward, the activity distribution measured by PET
has to be compared to an expectation based on the prescribed treatment
plan and the time course of irradiation and imaging. This is
accomplished by Monte-Carlo (MC) simulations based on the FLUKA
code [1, 2]. The MC modelling of the different contributing β+-emitter
production channels has been validated pre-clinically by an extensive
series of phantom experiments.
In addition, a dedicated research platform has been developed for an
easy integration of PET/CT-based monitoring in the clinical workflow.
The software comprises an interface to the MC simulation code for the
automated processing of the MC calculation and the post-processing
and handles the complex data management as well as the visualization
of the results. Providing powerful exploration and analysis tools at the
same time the platform allows for an integrated patient workflow.
First clinical cases are analyzed in the framework of a reviewed trial
designed for 240 patients treated with proton or carbon ions at different
tumour sites. One of the main challenges regarding the offline PETbased treatment verification is the time delay between the irradiation and
the PET acquisition due to the patient transport from the treatment place
to the PET/CT scanner. During this pause the irradiation induced β+activity is transported away from the point of origin by perfusion of the
irradiated tissue. The resulting distortion of the originally induced activity
distribution has to be considered for the MC simulation in order to be
able to compare the prediction to the PET measurement. Starting from
the approach developed by Parodi et al. [3] for the offline PET-based
monitoring of proton treatment, we are investigating the improvement of
this modelling by exploiting magnetic resonance perfusion data providing
better resolved information about the local washout.
In this contribution we present an overview of the first clinical cases for
both proton and carbon ion treatment where the irradiation-induced
activity distribution is evaluated in view of treatment verification taking
into account the modelling of biological washout effects.
This work is supported by BMBF grant 01IB08002A “DOT-MOBI”.
[1] Battistoni et al., AIP CP 896, 2007
[2] Fasso` et al., CERN-2005-10, 2005
[3] Parodi et al., IJROBP 68 (2007)
44
12.5
Automatische Reichweitenanalyse für die Ionenstrahltherapie
mittels PET
1
2
3
3
1,2
S. Helmbrecht , F. Fiedler , D. Georg , P. Kuess , W. Enghardt ;
1
OncoRay – National Center for Radiation Research in Oncology,
2
Dresden, Germany, Helmholtz-Zentrum Dresden-Rossendorf, Dresden,
3
Germany, Department of Biomedical Engineering and Physics, MUW,
Wien, Austria.
Einleitung: Die Positronen-Emissions-Tomografie findet neben ihrem
klassischen Einsatz Anwendung bei der Verifikation der Dosisapplikation
bei der Ionentherapie. Grundprinzip ist die Detektion der Verteilung
positronenemittierender Nuklide, welche durch Kernreaktionen während
der Bestrahlung entstehen.
Aufgrund der physikalisch fundamental unterschiedlichen Prozesse, die
zu Aktivität und Dosis führen, ist eine direkte Berechnung der Dosis aus
den PET-Daten nicht möglich. Die Interpretation der gemessenen
Bilddaten erfolgt daher durch Vergleich mit einer Monte-CarloSimulation. Der Vergleich muss in drei Dimensionen erfolgen und ist
dementsprechend zeitaufwändig. Zudem ist gut geschultes und geübtes
Personal erforderlich.
Ein Einsatz der visuellen Auswertung ist daher sowohl in der klinischen
Routine als auch zur Durchführung von Studien wenig geeignet und eine
(teil)automatisierte Prozedur erscheint sinnvoll und wünschenswert.
Material und Methoden: Die entwickelte Methode ist physikalisch
motiviert, sie vergleicht Ionenreichweiten im Beam's-Eye-View. Hierzu
wurde ein eindimensionaler Algorithmus adaptiert, getestet, verbessert
und auf drei Dimensionen erweitert. Ergebnis ist eine Matrix deren
Elemente Reichweitendifferenzen zwischen Messung und Simulation
repräsentieren.
Systeminhärente
Schwankungen
durch
die
stochastische Natur der Wechselwirkungsprozesse, niedrige Zählraten
und biologische Effekte schränken die Bildqualität ein. Dieses wird durch
eine
nachfolgende
statistische
Auswertung
der
Reichweitendifferenzenmatrix teilweise kompensiert.
Für die Entwicklung des Algorithmus kommen Patientendaten zum
12
Einsatz, die in den Jahren 1997-2008 während der Therapie mit CIonen an der GSI in Darmstadt gemessen wurden. Zunächst dienen
künstliche Reichweitenmanipulationen in den simulierten Daten als
Testobjekte für den Algorithmus.
Von 8 Patienten wurden für je eine Fraktion jeweils 10 Simulationen
ohne und mit Modifikation um maximal +10 ES, +6 ES, +4 ES, -4 ES, -6
ES und -10 ES verwendet. ES kennzeichnet energy step und entspricht
einer Eindringtiefe von 1 mm in Wasser, 0,85 mm in Weichgewebe und
0,53 mm in Knochen.
Ergebnisse: Das Erkennen künstlicher Reichweitenveränderungen ist
ein Klassifizierungsproblem. Die Leistungsfähigkeit des Algorithmus wird
mittels Receiver Operating Characteristics (ROC) visualisiert: In
Abhängigkeit des Grenzwertes, welcher die bewerteten Objekte in
modifiziert (positiv) und unmodifiziert (negativ) klassifiziert, wird der
Anteil der korrekt positiven (true positive rate, TPR) gegen den Anteil der
falsch positiven (false positive rate, FPR) aufgetragen. Eine
Zufallsentscheidung würde eine Gerade mit TPR=FPR produzieren. Ein
Punkt im ROC-Raum ist umso besser je „nordwestlicher“ er liegt.
Abbildung 1 zeigt die Leistungsfähigkeit der Methode für
Reichweitenmanipulationen von ±4 ES, ±6 ES und ±10 ES.
Diskussion
Die Erweiterung des eindimensionalen Algorithmus auf drei
Dimensionen und die anschließende statistische Auswertung liefern
sinnvolle Ergebnisse. Die Methode analysiert Aktivitätsverteilungen, die
durch Ionenbestrahlungen von Geweben entstehen, ist dabei jedoch
nicht auf die Messung in-beam angewiesen sondern kann prinzipiell
auch in-room aufgenommene PET Daten verarbeiten.
Das visuelle Erkennen von Reichweitenmanipulationen durch geschulte
Personen liefert eine höhere Treffsicherheit, (92±3)% true positive rate
bei (4±2)% false positive rate für ±6 ES. Die automatisierte Methode
eignet sich dennoch für Studien mit einer hohen Zahl an Datensätzen,
deren visuelle Auswertung mit hohem Zeitaufwand verbunden wäre.
Desweiteren kann eine Integration in ein Softwarepaket künftig die
visuelle Evaluation der gewonnenen PET-Daten erleichtern und
beschleunigen.
12.6
Robustheit von Protonenbestrahlungsplänen im Kopfbereich:
Einfluss von interfraktionären Positionierungsunsicherheiten als
Funktion der Strahlkonfiguration
J. Hopfgartner, M. Stock, D. Georg;
MedUniWien, Wien, Austria.
Hintergrund:
Interfraktionäre
Positionierungsunsicherheiten
des
Patienten stellen eine nicht zu vernachlässigende Fehlerquelle in der
Dosisapplikation der Protonentherapie dar. Dies ist dadurch begründet,
dass Protonen einen steilen Dosisgradienten (Bragg-Peak) am distalen
Teil der Dosisverteilung aufweisen. Fehlpositionierung und damit
verbundene Verschiebungen von Dichteheterogenitäten haben lokale
Über- und Unterdosierungen zur Folge. In der vorliegenden Studie
wurde
evaluiert,
inwieweit
die
Robustheit
von
Protonenbestrahlungsplänen
gegenüber
translatorischen
und
rotatorischen Verschiebungen des Patienten von der Strahlkonfiguration
abhängt.
Material und Methoden: In 14 Patienten mit Tumoren im Kopfbereich
(Schädelbasis (SB; n=7) und Nasennebenhöhlen (NNH; n=7)) wurden
repräsentative Risikostrukturen (OAR; Hirnstamm, Sehnerven und
Augen) und klinisches Zielvolumen (CTV) konturiert. Zwei
Planungszielvolumen-(PTV)
Konzepte
wurden
angewandt
(PTV1=CTV+5 mm, PTV2=CTV+3 mm). Zur Erstellung der
Bestrahlungspläne
wurde
das
Protonenplanungssystem
XiO(CMS/Elekta) verwendet. Eine Dosis von 2 CGE sollte jeweils anhand
zweier Strahlkonfigurationen (lateral/individuell) im jeweiligen PTV unter
bestmöglicher Schonung der OARs appliziert werden (P0). Die erste
Konfiguration bestand für beide Indikationen aus lateral opponierende
Felder, währenddessen die zweite Strahlanordnung für SB Tumoren aus
beidseitig schrägen (±55) bzw. aus frontalen und schrägen Feldern
(0°und ±60) bei NNH Tumoren geplant wurde. Im Folgenden wurden P0
unter gleichzeitiger Simulation translatorischer (lateral=±3mm, kraniokaudal=±3mm, anterior-posterior=±2 mm) und rotatorischer (Roll=±2°,
Gier=±2) Fehlpositionierungen der Patienten nachgerechnet (P±). Zur
Quantifizierung der Planrobustheit innerhalb der Strahlkonfigurationen
sowie im Vergleich untereinander wurden Indizes bezüglich
Dosisabdeckung (CI), Dosiskonformität (CN) und Dosishomogenität (HI)
im Zielvolumen bzw. Dosis-Volumen-Histogramm-(DVH) Parameter
(Dmean, Dmax, D10%, D50%) in den OARs ermittelt. Die jeweiligen
Indizes der P0 wurden hierfür als Referenz herangezogen. Der gepaarte
Wilcoxon-Rangsummen-Test wurde zur statistischen Analyse verwendet
(Signifikanzniveau p≤0.05).
Ergebnisse:
Wie
erwartet
zeigten
die
nachgerechneten
Bestrahlungspläne der individuellen Strahlkonfigurationen nach
translatorischen
und
rotatorischen
Verschiebungen
deutliche
dosimetrische Abweichungen von den Originalplänen. Statistisch
signifikante Unterschiede betreffend CI [0.69-0.99], HI [1.1-26.2] und
Dmax [1-1.15] im Zielvolumen konnten in beiden Tumorindikationen für
beide PTV Konzepte festgestellt werden. Gleiches gilt für Hirnstamm
und Augen im Gegensatz zu den Sehnerven, wobei hierbei keine
Systematik betreffend PTV Konzepte oder Indikationen zu erkennen
war. Im direkten Vergleich der Planrobustheit als Funktion der
Einstrahlrichtung wurden keine systematisch signifikanten Unterschiede
festgestellt. Leichte Vorteile zeigte die schräge bzw. individuelle
Strahlkonfiguration unter Anderem bei der Dosishomogenität im
Zielvolumen. Während die schräge Strahlanordnung bezüglich CI und
Dmax im Fall der Schädelbasistumoren als robuster angesehen werden
konnten, waren für die laterale Strahlkonfiguration leichte Vorteile in
Nasennebenhöhlenindikationen ersichtlich. Im Allgemeinen waren
Vorteile der jeweiligen Strahlanordnungen nicht isotrop und variierten
bedingt durch die Richtung der Translationen und Rotationen (positiv
oder negativ).
Diskussion: Wider Erwarten konnte keine systematische Begünstigung
der
Bestrahlungsplanrobustheit
im
Vergleich
der
beiden
Strahlkonfigurationen (lateral vs. Individuell) festgestellt werden.
Unterschiede in der Robustheit zwischen den Strahlanordnungen
wurden gehäuft beim größeren PTV Konzept gefunden. Den
durchgeführten
Untersuchungen
liegen
„worst
case“
Verschiebungsszenarien zugrunde, welche durch eine tägliche
Bildführung minimiert werden können.
12.7
Long-term stability of a scanned proton pencil beam - a roadmap to
Intensity Modulated Proton Therapy
T. Domke, C. Skalsky, G. Datzmann, B. Müller, M. Hillbrand, J. Hauffe;
Rinecker Proton Therapy Center, München, Germany.
Background: For Intensity Modulated Proton Therapy (IMPT), the
superposition of 3-dimensional inhomogeneous dose patterns prompt
the demand for an accurate delivery of the scanned proton pencil beam.
The aim of this study was to evaluate the geometric precision of proton
beam delivery, it’s stability over time and hence the applicability of an
IMPT treatment plan.
Material and methods: A multi-stripe ionization chamber in the nozzle
was used to determine the position of the central beam axis and off-axis
spots on a daily basis. At the isocenter, the position of the central spot
and eight off-axis spots were measured using a 2-dimensional beam
imaging device based on a scintillation detector and a charged-coupled
device camera. To demonstrate the applicability of an IMPT plan, a
treatment plan was calculated for a horseshoe-shaped target structure in
a PMMA-phantom. Verification of the dose distribution was using
radiochromic film dosimetry.
Results: At the chamber stack in the nozzle, measured deviations of the
central axis were between -0.8 to 1.0 mm in longitudinal and between 0.4 to 1.0 mm in transversal direction for all gantry angles, all energies
and right after calibration of the beam line. For gantry angle 0° and for
three representative energies, i.e. 230, 160 and 90 MeV, maximum
deviations from their position right after calibration ranged between +/0.4 mm in both directions over a period of three months. Results for
other gantry angles and for measurements at the isocenter showed
similar results. Off-Axis spots showed a stability of better than -0.6 to 0.5
mm at the chamber stack over a period of 2 months. The same holds for
off-axis spot positions measured at the isocenter.The analysis of the
film-measurement for an IMPT plan showed that it is possible to achieve
a good homogeneity of the dose-distribution.
Conclusion: The delivery of proton spots appears to be very accurate.
Daily variations and long-term shifts are small for the central axis
position as well as for off-axis spots. Regardless of other patient related
uncertainties the geometric accuracy of proton beam scanning enables
for accurate and stable application of IMPT dose patterns.
45
Session 13: Nuklearmedizin Quantitative Bildgebung
13.3
Development and usage of biokinetic models for
radiopharmaceuticals to optimise applications in nuclear medical
diagnostics and therapy
U. Oeh, W. Li, T. Janzen, C. Hoeschen;
Helmholtz Zentrum München, Neuherberg, Germany.
The topic of this talk will be a proposal to make use of biokinetic
investigations and modelling in the field of nuclear medical imaging and
therapy in order to optimise these techniques. In nuclear medicine,
radiopharmaceuticals are administered to patients for diagnostic or
therapeutic purposes. We study and model the biokinetics of these
radiopharmaceuticals in cooperation with nuclear medicine departments.
Assessing the biokinetic behaviour of the radiopharmaceuticals used in
nuclear medical applications, regarding the organs of interest as well as
in the surrounding tissues enables us to develop biokinetic models for
the radiopharmaceuticals and thus to optimise the time scheme for
diagnostic or therapy applications.
The first example is related to nuclear imaging. We studied the biokinetic
18
behaviour of F-choline which is used in PET imaging of patients with
18
prostate tumours. Biokinetic data for F-choline were collected at Malmö
University Hospital for 10 patients by measuring the activity
concentrations in liver, kidneys, spleen, and (if present) tumour with PET
for different time points after injection (see figure, left side). In addition,
18
the activities of F-choline in blood and urine samples were determined
at different times post-administration. Based on this data and with the
help of the forcing function method and the population kinetic approach
with the pharmacokinetic modelling software ADAPT 5, a compartmental
18
model was developed describing the biokinetic behaviour of F-choline
in the human body (see figure, right side). The advanced knowledge
about the biokinetics of this radiopharmaceutical allowed to calculate
relevant dose distributions in the body and to optimise the diagnostic
time schedule for better signal-to-noise ratios in the PET images.
The second example is related to nuclear therapy. In this work we
developed a biokinetic model for radioiodine used for therapy of
autonomous functioning thyroid nodules (AFTN). The model parameters
were estimated using measured biokinetic data from 43 AFTN patients
using a gamma camera to analyse the activities of radioiodine in the
thyroid during the clinical diagnostic and therapeutic routine procedures
for different time points. In this way a biokinetic model for radioiodine
was established which could for example be used to determine the
optimal time schedule for the whole investigation. Applying this schedule
can help to increase the efficiency of the clinical procedures by reducing
the work load of the staff and the usage of the machines. More
importantly, the patients can profit from the optimization because the
treatment can be adapted individually to the personal iodine biokinetics.
13.4
Radioimmuntherapie mit Anti-CD45 Antikörper:
Pharmakokinetische Modellierung erlaubt optimale Vorabsättigung
P. Kletting, M. Luster, S. N. Reske, G. Glatting;
Universität Ulm, Ulm, Germany.
Bei der Radioimmuntherapie mit anti-CD45 Antikörper ist die
Vorabsättigung mit unmarkiertem Antikörper eine Methode, um die
erzielte Dosis im Knochenmark zu erhöhen. In einer vorausgehenden
Studie wurde die optimale Vorabsättigung für die Radioimmuntherapie
mit anti-CD45 Antikörper mit Hilfe physiologisch basierter
pharmakokinetischer Modellierung bestimmt (1). In der vorliegenden
Untersuchung wird diese Methode validiert und weiter verbessert.
Zur Ermittlung der Bioverteilung wurden zwei Messreihen pro Patient
durchgeführt. Bei der ersten Messreihe (Gammakamera und
Serumproben 0-144 h p.i.) wurde vor der Applikation des 111Inmarkierten Antikörpers unmarkierter Antikörper verabreicht, bei der
zweiten Messreihe (Gammakamera und Serumproben 0-24 h p.i.) wurde
46
nur radioaktiv markierter Antikörper injiziert. Die zweite Messreihe wurde
7 Tage nach dem Beginn der ersten gestartet. Insgesamt wurden die
entsprechenden Daten von 5 Patienten untersucht. Zwei Modelle
wurden an die Datenreihen angepasst und mittels des korrigierten
Akaike Informations- Kriteriums (2,3) das am besten zu den Daten
passende Modell ausgewählt. Die ermittelten Parameter wurden mit den
aus der Literatur bekannten Werten verglichen. Um die optimale Menge
zur Vorabsättigung mit unmarkiertem Antikörper zu bestimmen, wurden
Simulationen von 0-60 mg durchgeführt. Die Vorhersagekraft des
Modells wurde anhand von Serumaktivitätswerten während der Therapie
geprüft.
Die gefitteten Parameter waren alle in einem physiologisch plausiblen
Bereich. Die Abweichung der Flächen unter der vorhergesagten versus
der gemessenen Kurve lag im Bereich 15-33%. Die optimale
Vorabsättigung erhöht die Selektivität (Verhältnis der Verweildauern in
Knochenmark und Leber) um das bis zu 3.9 fache verglichen mit einer
therapeutischen Menge von unmarkiertem Antikörper (0.5 mg/kg
Körpergewicht).
Die hier vorgestellt Methode kann dazu verwendet werden die optimale
Menge
von
unmarkiertem
Antikörper
im
Rahmen
der
Radioimmuntherapie zu ermitteln. Außerdem können dosimetrische
Vorhersagen für die Therapie durchgeführt werden.
1. Kletting P, Bunjes D, Reske SN, Glatting G. Improving anti-CD45
antibody radioimmunotherapy using a physiologically based
pharmacokinetic model. J Nucl Med. 2009;50:296-302.
2. Kletting P, Kull T, Reske SN, Glatting G. Comparing time activity
curves using the Akaike information criterion. Phys Med Biol.
2009;54:N501-N507.
3. Glatting G, Kletting P, Reske SN, Hohl K, Ring C. Choosing the
optimal fit function: Comparison of the Akaike information criterion and
the F-test. Med Phys. 2007;34:4285-4292.
13.5
Erste Erfahrungen mit der Durchführung der Linearitätskontrolle
am Aktivimeter gemäß der neuen DIN 6855 Teil 11
W. Münzing;
Medizinische Physik Nuklearmedizin Klinikum der Universität München,
München, Germany.
Einleitung: Die Linearitätskontrolle am Aktivimeter ist ein fundamentaler
Bestandteil der Qualitätskontrolle in der Nuklearmedizin. Sie ist
halbjährlich durchzuführen, üblicherweise durch eine Messreihe mit
einem Tc-99m Eluat. Eine besondere Anforderung ist dabei die große
Meßbereichsdynamik über mehr als vier Größenordnungen. Als
Toleranzgrenze gilt laut Empfehlung der Strahlenschutzkommission vom
16./17. September 2010 5% Linearitätsabweichung, wenn höhere
Abweichungen vorliegen, sollte das Aktivimeter nicht mehr für
Patientenbetrieb verwendet werden. Eine auf den ersten Blick eher
unscheinbare Änderung in der neuen DIN 6855-11 vom Mai 2009 betrifft
das Auswerteverfahren. Während in der früheren DIN eine Regression
anzuwenden war, ist nach der aktuellen DIN ein anderes Verfahren
vorgegeben: der 1. Messpunkt ist als Referenz zu verwenden, weitere
Messpunkte sind mit diesem Referenzwert nach Zerfallskorrektur zu
vergleichen. Ziel der vorliegenden Studie war, Linearitätskontrollen nach
der neuen Auswertemethode mit Auswertungen nach dem
Regressionverfahren zu vergleichen und die Anwendbarkeit des neuen
Verfahrens zu überprüfen.
In der DIN ist keine Halbwertszeit ( Thalb) für die Zerfallskorrektur
angegeben, Thalb ist jedoch Aufgrund des Mo-99 Anteils im Eluat a priori
unbekannt. Wegen der großen Messbereichsdynamik ist dabei zu
erwarten, dass sich bereits kleine Abweichungen zum tabellierten Wert
für Thalb =6,006 h (laut PTB oder NIST) signifikant auswirken. Ein
weiteres Ziel der Studie war daher die Bestimmung einer effektiven Thalb
für die Anwendung bei der Linearitätskontrolle.
Methodik: An fünf Aktivimetern ( 4 Geräte Veenstra IBC, 1 Gerät
Isomed 2000) wurden vier Messreihen zur Linearitätskontrolle mit
Startwerten der Aktivität zwischen 10 und 35 GBq durchgeführt . Die
Auswertung erfolgte nach der neuen DIN Norm und mit
Regressionsverfahren. Bei letzterem erfolgte die Anpassung einmal für
Steigung und Achsenabschnitt und einmal nur für den Achsenabschnitt
bei vorgegebener fester Steigung. Aus dem Fit-Wert der Steigung wurde
eine effektive Thalb bestimmt.
Ergebnisse: Bei hohen Startaktivitäten (> 25 GBq) ergab die Methode
nach neuer DIN bei 3 von 5 Aktivimetern für die Mehrzahl der
Messpunkte Linearitätsabweichungen größer 5%, demnach hätten diese
Geräte nicht mehr für Patientenbetrieb eingesetzt werden können. Die
Auswertung
mit
Regression
dagegen
lieferte
durchgehend
Abweichungen unter 3 %. Bei Startaktivitäten unter 10 GBq ergaben sich
keine relevanten Unterschiede zwischen den Auswerteverfahren, das
Regressionsverfahren
lieferte
jedoch
systematisch
kleinere
Linearitätsabweichungen. Als Thalb wurden 6,013 h bestimmt. Dieser
-6
Wert entspricht einem Mo-99 Anteil im Generator-Eluat von 5 x 10 und
ist innerhalb der Fehlerbreiten konsistent mit dem durch HPGe-6
Spektroskopie gemessenen Mo-99 Anteil von 2 x 10 .
Diskussion und Schlussfolgerung: Bei dem Verfahren nach neuer
DIN pflanzt sich ein Fehler des 1. Messwertes durch alle folgenden
Werte
additiv
fort.
Es
genügen
dann
bereits
kleine
Linearitätsabweichungen der weiteren Messwerte von 1- 2 %, damit die
Toleranzgrenze überschritten wird, obwohl am Aktivimeter keine
eigentliche Fehlfunktion vorliegt. Aufgrund von Rekombinationseffekten
in der Messkammer eines Aktivimeters ist die Wahrscheinlichkeit für
Nichtlinearitäten bei hohen Aktivitäten am größten.
Das Verfahren nach der neuen DIN 6855-11 ist nur eingeschränkt
anwendbar, bei den in der vorliegenden Studie angewandten
Aktivimetern sollte es nur für Startaktivitäten < 15 GBq eingesetzt
werden.
13.6
Der aktuelle Vorschlag zur ÖNORM S 5271 - ein Ausweg aus der
Vielfalt von Vorschriften zur Konstanzprüfung von
Gammakameras?
1
2
3
4
5
F. König , R. Brettner-Messler , G. Buchhalt , M. Ditto , L. Fridrich , G.
6
7
8
9
10
Goldschmied , R. Göschl , G. Greifeneder , B. Gruy , E. Havlik , M.
11
12
13
14
Hinterreiter , J. Holzmannhofer , R. Nicoletti , B. Warwitz ;
1
2
Donauspital, Wien, Austria, Bundesamt für Eich- und
3
Vermessungswesen, Wien, Austria, Siemens AG, Wien, Austria,
4
5
Bundesministerium für Gesundheit, Wien, Austria, Landeskrankenhaus
6
Steyr, Steyr, Austria, MA 39 - PTPA - Labor für Strahlenschutz, Wien,
7
8
Austria, GE Medical Systems, Wien, Austria, Amt der NÖ
9
Landesregierung, St. Pölten, Austria, Krankenhaus der Barmherzigen
10
Schwestern, Linz, Austria, Sachverständiger, Rekawinkel, Austria,
11
12
Krankenhaus der Elisabethinen, Linz, Austria, LKH Salzburg,
13
14
Salzburg, Austria, Medizinphysiker, Graz, Austria, LKH Universitätskliniken Innsbruck, Innsbruck, Austria.
Nationale und internationale Gremien befassen sich mit der Frage des
Umfangs und der zeitlichen Frequenz der Konstanzprüfung apparativer
Qualitätsmerkmale von planarer Szintigraphie und EinzelphotonenEmissions-Computertomographie. Während sich in einigen Bereichen
die Vorstellungen der Gremien decken oder eng überlappen, zeigen sich
in manchen Gebieten deutliche Unterschiede, insbesondere hinsichtlich
der geforderten Frequenzen. Der (in Österreich) für die Organisation der
Konstanzprüfung verantwortliche Medizinphysiker läuft in Gefahr die
jeweils engmaschigsten Kontrollen all dieser Vorschriften umsetzen zu
müssen.
Während es für die Konstanzprüfung des „nuklearmedizinischen Teiles“
eine Vielzahl von Empfehlungen gibt, wurden für kombinierte Geräte
(SPECT/CT) noch keine konkreten Normen veröffentlicht. Auch die
Konstanzprüfung von „ausschließlich zur Schwächungskorrektur
geeigneten CT-Systemen“ ist in diesem Zusammenhang nicht normiert.
In Österreich normiert das Strahlenschutzgesetz bzw. die darauf
beruhende
medizinische
Strahlenschutzverordnung
die
Konstanzprüfung. Die zuständige Behörde kann die Beachtung
einschlägiger
Normen
vorschreiben.
Daneben
gibt
das
Medizinproduktegesetz einer (in vielen Fällen vorliegenden) Empfehlung
des Geräteherstellers normativen Charakter und erfordert damit
zusätzlich durchzuführende Überprüfungen. Überlagert werden diese
Empfehlungen durch Veröffentlichungen der EANM zum Thema
„Routine quality control recommendations for nuclear medicine
instrumentation“ welche ihrerseits deutlich gestiegene Anforderungen
verglichen mit den bisherigen stellen.
Die Arbeitsgruppe MG4 – „Geräte und Qualitätssicherung in der
Nuklearmedizin“ des Komitees 088 – „Strahlenschutz“ hat versucht, bei
der Überarbeitung der ÖNORM S 5271 „Planare Szintigraphie und
Einzelphotonen-Emissions-Computertomographie - Konstanzprüfungen
apparativer Qualitätsmerkmale“ einen Ausweg aus diesem Dilemma zu
finden.
Die Arbeitsgruppe stellte fest, dass mittlerweile alle namhaften
Gerätehersteller der Konstanzprüfung im Rahmen der Qualitätskontrolle
hohen Stellenwert einräumen und entsprechend wohlüberlegte
Arbeitsanleitungen und Zeitpläne zu diesem Thema im Rahmen ihrer
Bedienungsanleitungen zur Verfügung stellen. Es kann mit einiger
Berechtigung davon ausgegangen werden, dass der Gerätehersteller die
Stärken und Schwächen seiner Produkte kennt und Umfang und
Frequenz der vorgeschriebenen Qualitätskontrollmessungen eventuellen
Schwachpunkten anpasst.
Der Vorschlag zur überarbeiteten ÖNORM versteht sich daher nur mehr
als Rahmenentwurf, welcher dann, wenn seitens des Herstellers keine
oder unzureichende Ausführungen über die Konstanzprüfungen getätigt
werden, greifen soll. Für die Erstellung dieses Rahmenentwurfes wurden
die Empfehlungen der EANM und die Regelungen der gültigen DIN
6855-2 einer kritischen Überprüfung unterzogen und insbesondere die
Empfehlungen der DIN hinsichtlich der Überprüfung des GanzkörperZusatzes in den Prüfungskatalog aufgenommen.
Für die Überprüfung kombinierter Geräte, insbesondere bei der
Verwendung von „ausschließlich zur Schwächungskorrektur geeigneter“
CT-Subsystemen, wurden die Empfehlungen der Gerätehersteller
gesichtet und in Bezug zur gültigen ÖNORM EN 61223-2-6 „Bewertung
und routinemäßige Prüfung in Abteilungen für medizinische Bildgebung,
Teil
2-6:
Konstanzprüfungen
Röntgeneinrichtungen
für
Computertomographie“ vergleichend gegenübergestellt. Für diese
Geräte wurde die verpflichtende Messung des CTDI in den Zeitplan
aufgenommen. Für alle anderen CT-Subsysteme wurde auf die oben
zitierte EN-Norm verwiesen.
Weiters wurde für alle kombinierte Geräte die „Prüfung der
Deckungsgleichheit von Bildern unterschiedlicher Modalitäten“ in den
Prüfungskatalog aufgenommen.
Auch innerhalb der Arbeitsgruppe sind die Beratungen zum
gegenwärtigen Zeitpunkt (Mai 2011) noch nicht abgeschlossen. Die
vorliegende Arbeit versteht sich daher als offener Diskussionsbeitrag auch mit den Kollegen aus der Bundesrepublik und der Schweiz - über
die Zukunft der Normenlage im Bereich der Qualitätskontrolle von
Gammakameras.
13.7
Verification of a dedicated fully automated software for SPECT
inhomogeneity quality control with GATE simulations
1
1
2
1
2
A. Hirtl , G. Dobrozemsky , M. Figl , B. Knäusl , M. P. Schaffarich , H.
2
Bergmann ;
1
Department of Nucler Medicine - Medical University of Vienna, Wien,
2
Austria, Center for Medical Physics and Biomedical Engineering Medical University of Vienna, Wien, Austria.
Introduction: Austrian regulations for SPECT (ÖNORM S 5271)
demand a constancy inspection of tomographic imaging properties
(resolution, contrast and inhomogeneity) every six months. The modular
Jaszczak phantom (cold rods for resolution, cold spheres for contrast
and a homogeneous cylinder for inhomogeneity) is widely used for that
purpose. Until now, quality control is performed visually, which is not
sensitive for small changes in properties of cameras. A recently
presented fully automated software (ImageJ plugin) is capable of
detecting such subtle changes in image quality. Goal of the proposed
work is to investigate the capabilities of that software for detecting
inhomogeneities, i. e., ring artefacts in detail.
Method: Data from Jaszczak phantom measurements were analysed
with the dedicated software and ring artefacts were identified by
employing the Hough transformation for rings. However, in order to
determine the detectability limits of the software, Monte Carlo
simulations of artefacts with varying intensity have to be performed.
Therefore, an arbitrary SPECT camera with two detector heads and a
homogeneous cylinder filled with activity diluted in water - mimicking the
inhomogeneity part of the Jaszczak phantom only - is modelled using the
simulation framework GATE (Geant4 Application for Tomographic
Emission). Ring artefacts of different intensities are simulated by
masking a small area in front of the collimator with an aluminium pad
with varying thickness, thus imitating detector failure of varying severity.
The simulated data is output in Interfile format and reconstructed using
filtered backprojection (FBP), provided by the HERMES software
(Hermes Medical Solutions, Sweden). The reconstructed images will be
analysed with the proposed ImageJ plugin.
Results: Clearly visible ring artefacts existing in measured data were
correctly detected with the Hough algorithm. The interpretation of the
image homogeneity is both objective and quantitative. First results
suggest, that images reconstructed from data produced by the GATE
simulation can be used for benchmark tests of the dedicated software.
Outlook: For detailed tests of the software, an in-house existing SPECT
camera will be modelled in terms of collimator properties, crystal
geometry and measurement protocol. Reconstructed images from
simulated data with ring artefacts of varying intensity will be used for
defining a lower limit of detectability of the quality control software.
Eventually, the results of the simulation will be compared to
measurements of the Jaszczak phantom with parts of the the SPECT
detector head masked with aluminium pads of the same thickness like
modelled in the simulation.
47
Session 14: Präklinische Bildgebung
14.3
Optimierung der Kleintierbildgebung mit nichtreinen
Positronenstrahlern
1
2
1
1
3
1
S. Sauerzapf , A. Zakhnini , M. Behe , W. Weber , U. Pietrzyk , M. Mix ;
1
Universitätsklinikum Freiburg, Abteilung Nuklearmedizin, Freiburg,
2
Germany, Helmholtz-Zentrum Dresden-Rossendorf, Institut für
3
Radiochemie, Dresden, Germany, Forschungszentrum Jülich, Institut
für Neurowissenschaften und Medizin / INM-4, Jülich, Germany.
Die lange Halbwertszeit des Radionuklids I-124 (4,18d) ermöglicht es
langsame biochemische Prozesse über einen längeren Zeitraum zu
quantifizieren, als dies mit herkömmlichen reinen Positronenstrahler, wie
beispielsweise F-18, der Fall ist. Nachteilig beim komplexen
Zerfallsschema von I-124 sind neben der geringen Positronenausbeute
von 22,8% zusätzlich koinzident emittierte Gammalinien. Mit Energien
von z.B. 602.72keV und 722.78keV liegen sie in den Energiefenstern
der verwendeten Kleintier-PET-Scannern. Ziel dieser Arbeit war es,
einerseits die Datenakquisition bzgl. der Wahl des Energiefensters zu
optimieren und andererseits Korrekturen zur Bildverbesserung direkt in
die Datenrekonstruktion einzuarbeiten.
Um den Anteil der „falschen“ Koinzidenzen durch zwei direkt emittierte
Gamma oder ein direktes und ein Annihilationsgammaquant von den
„wahren“ Annihilationskoinzidenzen zu unterscheiden, wurden MonteCarlo (MC) Simulationen mit GATE [1] für zwei Kleintierscanner
gerechnet. Das ClearPET (Raytest) weist aufgrund eines variablen
Ringdurchmessers und der angeschlossenen Elektronik räumliche
Lücken zwischen den Dual-Layer-Detektoren aus LYSO und LuYAP auf,
die durch Rotation des PET um die z-Achse kompensiert werden. Im
Vergleich zum stationären LSO-Blockdetektorsystem MicroPET
(Concorde) erfordert das ClearPET einen komplexeren Systemabgleich.
Gezeigt wurde bereits, dass der Anteil der falschen Koinzidenzen mit
einer schlechteren Energieauflösung und der dadurch bedingten
größeren Energiefensterbreite zunimmt [2]. Systemabhängig wird daher
eine kleinere Energiefensterwahl vorgeschlagen, um die durch die
falschen
Koinzidenzen
bedingte
Hintergrundaktivität
in
den
rekonstruierten Bildern zu minimieren. Erste Messungen am MicroPET
bestätigen dies (Fig. 1).
Weiterhin konnte durch die MC-Simulationen auf Sinogrammebene
gezeigt werden, dass die falschen Koinzidenzen auch einen
aktivitätsabhängigen erhöhten Anteil innerhalb der Phantomgrenzen
verursachen. Aus diesem Grund wird hier eine modifizierte
Hintergrundsubtraktion vorgeschlagen, die diesen zusätzlichen Beitrag
miteinschließt.
Der
durch
diese
Korrekturen
verursachte
Zählratenverlust, muss durch Regularisierungsverfahren innerhalb der
Rekonstruktionsalgorithmen kompensiert werden. Verglichen wurde der
gängige Ordered Subset Expectation Maximization Algorithmus (OSEM)
[4] mit einem Maximum a Posteriori Ansatz (MAP). Der OSEM-MAPAlgorithmus mit einem Median Root Prior (MRP) [3] als
Regularisierungsterm unterdrückt das Rauschen und ist zugleich
kantenerhaltend. Ein direkter Vergleich der beiden Algorithmen (Fig. 2)
verdeutlicht
die
verbesserte
Darstellung
homogen
gefüllter
Phantombereiche der OSEM-MAP-MRP-Rekonstruktion bei nahezu
gleicher Ortsauflösung.
Durch die Anwendung des OSEM-MAP-MRP-Algorithmus aus [5] auf
Messdaten einer mit I-124 injizierten Maus, können ebenfalls für das
MicroPET rauschärmere Bilder im Vergleich zum Standardalgorithmus
an diesem Gerät (OSEM 3D MAP) rekonstruiert werden (Fig. 3).
Eine innerhalb der Bildrekonstruktion eingearbeitete Korrektur für die
Positronenreichweite soll zukünftig die gerätetechnisch mögliche hohe
Ortsauflösung bei Kleintierscannern wiedergewinnen.
[1] S. Jan et al.: GATE V6: a major enhancement of the GATE simulation
platform enabling modelling of CT and radiotherapy. Phys. Med. Biol.
(56) (2011) 881-901
[2] S. Sauerzapf et al.: Optimierung des Energiefensters für I-124
anhand von Monte-Carlo Simulationen und PET-Messungen an
Kleintierund
Human-Tomographen.
Posterpräsentation,
Nuklearmedizin (50) (2011):A124,P114.
[3] S. Alenius et al.: Bayesian image reconstruction for emission
tomography based on median root prior. Eur. J. Nucl. Med. (24) (1997)
258-265
[4] H. Hudson et al: Accelerated image reconstruction using ordered
subsets of projection data. IEEE Trans. Med. Im. (13) (1994), 601-609
[5] Thielemans, K. et al.: STIR: Software for Tomographic Image
Reconstruction release 2,” IEEE Nucl. Sci. Symp. and Med. Imaging
Conference 2006.
14.4
Development and performance test of an online blood sampling
system for determination of the arterial input function in rats
1
2
2
3
F. Roehrbacher , J. P. Bankstahl , M. Bankstahl , T. Wanek , J.
3
3
3
1
3
Stanek , M. Sauberer , J. Muellauer , T. Schroettner , O. Langer , C.
3
Kuntner ;
1
Seibersdorf Labor GmbH / Radiation Safety and Applications,
2
Seibersdorf, Austria, University of Veterinary Medicine and Center for
Systems Neuroscience / Department of Pharmacology, Toxicology and
3
Pharmacy, Hanover, Germany, AIT Austrian Institute of Technology
GmbH / Molecular Medicine, Seibersdorf, Austria.
Objectives: For PET kinetic modeling an accurate determination of the
arterial input function is required. In this study a new online blood
sampling system was developed and tested on different tracers in rats.
Methods: The detector consists of pairs of LYSO detectors (25.4 x 25.4
mm, cylindrical), photomultiplier tubes and a 13 mm lead shield
assembled within a steel casing. Rats were cannulated with microtubes
(ID=0.4 mm) in the femoral artery and vein for arterial blood sampling as
48
well as i.v. administration of the PET-tracers. Connected PTFEmicrotubes were centered between the LYSO crystals using a special
holder. To enhance sensitivity, 3 layers with 2 coils were used. A
flexible-tube pump was used to ensure a constant blood flow.
Performance of the detector was assessed with [18F]FDG,
[18F]ciprofloxacin, [11C]verapamil, [11C]MC113, [11C]tariquidar and
[11C]mephobarbital. Obtained input function curves were compared with
manual samples drawn every 5 sec during the first 3 min and further on
at 5, 10, 20, 30, 40, 50 and 60 min after radiotracer injection. After
manual sampling, an arterial/venous shunt was established. Shape and
area-under-the-curve (AUC, Bq*h/µl) of the input functions were
evaluated.
Results: The developed detector system provided an absolute
sensitivity of 6.5%. Time resolution is in the order of 700 ps. Maximum
peak values agreed well between the manual samples and the detector
with a mean difference of 0.4±7.05% (max 11.97%, min -9.92%). AUC
values also exhibited an excellent correlation (R=0.995) between the
manual sampling and the detector measurements with a mean
difference of 9.29±9.71% (max 24.14%, min -3.19%). Injected activities
ranged from 5.5 MBq to 58 MBq and had no influence on the accuracy of
the measurement. Animals did not exhibit any obvious adverse effects
caused by the arterial/venous shunt for an observation period of 90 min.
Conclusion: This study demonstrates that the developed blood
sampling system can be used for in vivo small animal PET studies in rats
in a reliable way. The usage of the systems enhances the accuracy of
the input curve as handling of small blood samples (~5 µl) especially
with low activity (as for C-11) is prone to measurement errors.
Additionally, the radiation dose of the experimenters can be reduced, as
it is not required anymore to continuously draw samples where the
personal is in close contact to the radioactive animals and blood.
Session 15: Radiodiagnostik
15.3
Sensitivitätsvergleich dreier Phantome zur Messung der Bildgüte in
der Mammographie
1,2
2
1
J. Hummel , H. Kaldara , P. Homolka ;
1
2
Meduni Wien, Wien, Austria, Wilhelminenspital, Wien, Austria.
Einleitung: Die Messung der Bildgüte in der Mammographie ist einer
der wichtigsten Punkte der notwenigen und vorgeschriebenen
Qualitätssicherung. In Europa wird im Rahmen der "European protocol
for the quality control of the physical and technical aspects of
mammography screening" in dieser Hinsicht das sogenannte CDMAM
(contrast-detail mammography) Phantom vorgeschrieben. Diese besteht
aus Goldplättchen verschiedener Dicke und Durchmesser, die auf eine
Kunststofffolie aufgedampft werden. Durch visuelle Auswertung der
gerade noch sichtbaren Scheiben können die grenzwertigen Kontraste
für die verschiedenen Durchmesser bestimmt werden. In Österreich und
Deutschland ist noch immer das ACR Phantom von den jeweils gültigen
Normen vorgeschrieben. Dieses besteht aus jeweils 5 Linienrastern und
künstlichen Kalkwolken, wobei jeweils mindestens 3 für einen
erfolgreichen Test erkannt werden müssen.
Die Gemeinsamkeit dieser beiden Phantome besteht darin, dass sie
beide eine visuelle, subjektive Auswertung erfordern. Um dieses
Problem zu überwinden, sind in letzter Zeit auch Phantome konstruiert
worden, die Aussagen über die Bildgüte mittels mathematischer
Parameter zulassen. Hier finden vor allem die im Frequenzbereich
definierten Parameter NEQ und DQE Verwendung. Ersterer wird von der
Fachhochschule Köln mit Hilfe einer von ihr entwickelten "schrägen
Kante" gemessen. Diese besteht im Wesentlichen auf einem scharf
abgegrenzten Metall eingefasst in ein Kunststoffhalterung. Eine Software
ermittelt über den Bereich der Kante die MTF und in einem homogenen
Bereich die NPS, woraus sich dann rechnerisch die NQE bestimmen
lässt.
Aufgrund des verschiedenartigen Aufbau der Phantome und den
unterschiedlichen Parametern, die damit gemessen werden sollen,
ergibt sich auch ein Unterschied insbesondere in Bezug auf die
Sensitivität auf Dosisänderungen, die im Zuge dieser Arbeit für jedes
Phantom vergleichbar bestimmt werden soll.
Methode: Die Dosissensitivität wird definiert als Änderung der der je
nach Phantom definierten Bildgüteparametern in Abhängigkeit
festgesetzter Dosisänderungen. Im klinischen Bereich d.h. bei
Eingangsdosen zwischen 5 mGy (50mAs) und 20 mGy (125mAs) wird
die Dosis durch Änderung des Strom-Zeit-Produkts (mAs) bei
gleichbleibender
Strahlqualität
(Anoden/Filter
Kombination,
Röhrenspannung) variiert.
Beim CDMAM wurden die Änderungen der detektierten Plättchendicken
bei 0.1, 0.2, 0.31 und 0.5 mm gemessen. Bei dem mathematisch
definierten Parametern (NEQ) wurden die prozentuellen Änderungen mit
der Dosis bei den Ortsfrequenzen von Null bestimmt. Als Parameter
beim ACR wird die Summe der erkennbaren Detailgruppen bei
Niedrigkontrasten und Punktwolkenauflösung bestimmt.
Resultate: Abbildung 1 zeigt die Resultate für NEQ(0), CDMAM beim
Durchmesser von 0,1 mm und ACR. Auf der Abszisse ist das Vielfache
der applizierten Dosis zum Ausgangswert bei 50mAs aufgetragen, auf
der
Ordinate
die
dadurch
entstehende
Änderung
des
Bildgüteparameters in %.
Diskussion: Die Änderung des NEQ(0) Bildgüteparameters zeigt den
deutlichsten und stetigsten Anstieg bei Dosiserhöhungen. Beim CDMAM
wurde der Durchmesser 0,1 mm gewählt, da dieser im EUREF Protokoll
zu weiteren Berechnungen verwendet wird. Das ACR Phantom zeigt in
diesem Vergleich die geringste Sensitivität gegenüber Dosiserhöhungen.
Auch ist die NEQ im Gegensatz zu den anderen Parametern mit sehr
einfachen Mitteln (es reicht eine schräge Kante) zu bestimmen. Die
Auswertungen von weiteren Durchmessern beim CDMAM bzw. weiteren
Frequenzen bei der NEQ führten zu äquivalenten Ergebnissen wie oben
beschrieben.
49
15.4
Entsprechen Prüfkörper eigentlich Ihren Norm-Vorgaben? Entwicklung von zerstörungsfreien Methoden zur
Konformitätsprüfung
1
1
2
2
M. Borowski , S. Wrede , U. Neuschaefer-Rube , M. Krumrey , H.
2
3
4
2
Danzebrink , J. Goebbels , H. Kreienfeld , L. Büermann ;
1
2
Klinikum Braunschweig, Braunschweig, Germany, PhysikalischTechnische Bundesanstalt, Braunschweig / Berlin, Germany,
3
Bundesanstalt für Materialforschung und -prüfung, Berlin, Germany,
4
TÜV NORD Ensys Hannover, Hannover, Germany.
Zielstellung: Vor der Inbetriebnahme einer Röntgeneinrichtung zur
Untersuchung am Menschen muss sichergestellt sein, dass diese den
Stand der Technik einhält (§§3-4 RöV). Hierzu muss eine
Abnahmeprüfung (AP) durchgeführt werden, in kontrolliert wird, ob die
erforderliche Bildqualität bei der Röntgeneinrichtung mit möglichst
geringer Strahlenexposition erreicht wird (§16(2) RöV). Während des
Betriebs einer Röntgeneinrichtung sind in regelmäßigen Abständen
Konstanzprüfungen (KP) durchzuführen, mit denen festgestellt wird, ob
die Bildqualität und die Höhe der Strahlenexposition unverändert sind
(§16(3) RöV). Bei AP und KP werden Prüfkörper eingesetzt. Die
Geometrie und die Materialzusammensetzung der Prüfkörper sind in
Normen festgelegt. Während für die Röntgengeräte AP und KP
vorgesehen sind und auch die bei den Prüfungen verwendeten
Dosimeter zumindest einer Bauartprüfung unterliegen, gibt es bislang
keine unabhängige Kontrolle der verwendeten Prüfkörper. Dieses ist als
kritisch anzusehen, da die relevante Abweichung eines Prüfkörpers von
seiner Norm-Spezifikation den Betrieb potentiell ungeeigneter
Röntgenanlagen ermöglichen kann oder andererseits geeignete
Röntgenanlagen fälschlich vom Betrieb ausgeschlossen werden können.
Ziel der vorliegenden Studie ist es, in der Routine verwendbare
Verfahren zu entwickeln, mit denen zerstörungsfrei die NormKonformität eines Prüfkörpers bestimmt werden kann. Zudem wird der
grundlegende Aufbau der Prüfkörper im Hinblick auf Ihre Eignung zur
Überprüfung der Bildqualität und Strahlenexposition kritisch hinterfragt.
Material und Methoden: Exemplarisch werden die Strukturkörper
untersucht, die in DIN 6868-4 (inkl. DSA) und DIN 6868-13 definiert sind.
Darüber hinaus wird der Testeinsatz-AP nach PAS 1054 sowie der
CDMAM-Prüfkörper für die Mammographie untersucht. Neben den
Strukturkörpern
werden
die
zugehörigen
Schwächungskörper
untersucht.
Die Prüfung erfolgt in allen Fällen durch quantitative, digitale
Röntgenbildgebung
unter
Verwendung
unterschiedlicher
Röntgenanlagen. Die Stabilität der Röntgenanlagen wurde während der
Studie kontinuierlich überwacht und Änderungen innerhalb der
Datenanalyse berücksichtigt.
Für jeden Prüfkörper wurden Master-Objekte definiert und hergestellt.
Die
Geometrie
der
Master-Objekte
wurde
mithilfe
der
Koordinatenmesstechnik sowie der Röntgenfluoreszenz quantitativ
untersucht.
Die
Abbildungseigenschaft
der
verwendeten
Röntgenanlagen für die einzelnen Komponenten der Prüfkörper wurde
anhand der Master-Objekte bestimmt. Abbildungsfunktionen für die
unterschiedlichen Komponenten wurden erstellt. Mit den entwickelten
Methoden wurden Prüfkörper verschiedener Hersteller untersucht, die
sich in der praktischen Anwendung befinden.
Resultate: Die entwickelten Verfahren ermöglichen es, in der Routine
die Norm-Konformität von Prüfkörpern zu testen. Die Untersuchung von
Prüfkörpern verschiedener Hersteller aus der Praxis lässt Unterschiede
zwischen Exemplaren des gleichen Typs erkennen. Die grundlegende
Beschäftigung mit dem Aufbau und den daraus resultierenden Abbildern
der Prüfkörper zeigt kritische Punkte auf, an denen eine Anpassung der
aktuellen Norm-Vorgaben sinnvoll erscheint. Die Anpassungen beziehen
sich dabei sowohl auf das Prüfkörperdesign als auch auf Toleranzen der
Komponenten, die aus Überlegungen zum Abbildungsverhalten der
Röntgenanlagen folgen.
Schlussfolgerung: Eine zerstörungsfreie Kontrolle der NormKonformität von Prüfkörpern ist möglich und erscheint zumindest auf der
Ebene von Stichprobenprüfungen sinnvoll.
Bei genauerer Betrachtung fallen einige Stellen in den Norm-Vorgaben
der untersuchten Prüfkörpertypen auf, bei denen eine Überarbeitung
sinnvoll erscheint.
15.5
Vergleich eines neuartigen Rekonstruktionsverfahrens (OPED) mit
Standard-FBP Rekonstruktionen an einem klinischen MDCT
1
1
2
1
2
B. C. Renger , P. Noel , O. Tischenko , E. J. Rummeny , C. Hoeschen ;
1
2
Institut für Radiologie, München, Germany, Helmholtz Zentrum
München, Neuherberg, Germany.
Ziel:
Das
am
Helmholtz
Zentrum
München
entwickelte
Rekonstruktionsverfahren OPED (Orthogonal Polynomial Expansion on
the Disk) besitzt in der Kombination mit einer optimierten Geometrie ein
50
hohes Dosispotential. Dies wurde in theoretischen und experimentellen
Studien bereits demonstriert. Ziel dieser Studie war es das
Rekonstruktionsverfahren mit einem klinischen CT-Scanner (Siemens
Somatom Sensation 64) zu implementieren, und die Bildqualität mittels
Phantom-Untersuchungen mit den Standard-FBP-Rekonstruktionen zu
vergleichen.
Material und Methoden: Alle Untersuchungen wurden mit einem
Siemens Somatom Sensation 64 (Erlangen, Germany) CT-Scanner
durchgeführt. Dort wurden die Bilder mittels des geräteseits
vorhandenen FBP-Verfahrens rekonstruiert. Darüber hinaus wurden die
Rohdaten der Untersuchungen exportiert und mit dem OPED-Verfahren
rekonstruiert. OPED rekonstruiert die Bilder als eine Reihenentwicklung
von Chebychev-Polynomen, und unterscheidet sich dadurch
grundsätzlich von FBP-Verfahren. Wenn eine für OPED optimierte
Geometrie verwendet wird, erlaubt OPED die Bildrekonstruktion direkt
aus den Rohdaten, ohne Rebinning- oder Interpolationsschritte. Dies ist
bei dem von und benutzen 3. Generations-CT nicht der Fall, so das die
Rohdaten zuvor resortiert werden mussten. Die verschiedene
Rekonstruktionsschritte wurden in C++ und Matlab implementiert. Alle
Messungen wurden mittels eines Catphan 600 Phantoms durchgeführt.
Dabei wurden Homogenität, MTF und CNR für OPED und verschieden
Dosisstufen bestimmt. Diese wurden ebenfalls für die Standard-FBPBildern und unterschiedliche Filter-Kernel ermittelt und anschließend
verglichen.
Ergebnisse: Die Rekonstruktion von MDCT-Rohdaten eines klinischen
CT-Scanners mittels OPED wurde realisiert. Die Rekonstruktionszeit Pro
Bild beträgt ca. 6 s auf einem Quad-Core 3 GHz Intel Xeon Prozessor.
Mittels OPED lassen sich typische CT-Artefakte reduzieren. Darüber
hinaus zeigt OPED eine verbesserte Auflösung, verglichen mit FBP. Die
MTF ist zudem, im Gegensatz zu FBP, über das gesamte Bild konstant.
Homogenität und CNR von FBP und OPED sind gleichwertig.
Zusammenfassung: Die Vorteile des OPED-Verfahrens über das FBPVerfahren konnten mit realen CT-Daten gezeigt werden. Zukünftig sehen
wir OPED in speziellen low-dose oder limited-angle Geometrien, in
denen das Potential des Verfahren gehoben werden kann.
15.6
Berechnung der Patientendosis bei HNO DVT-Untersuchungen
1
1,2
3
1
1
J. M. Voigt , J. Wulff , C. Güldner , A. Ningo , M. Fiebich ;
1
Institut für Medizinische Physik und Strahlenschutz, Technische
2
Hochschule Mittelhessen, Gießen, Germany, Klinik für Strahlentherapie
und Radiologische Onkologie, HELIOS Kliniken Krefeld, Krefeld,
3
Germany, 3 Hals-, Nasen und Ohrenklinik, Universitätskliniken Gießen
und Marburg, Standort Marburg, Marburg, Germany.
Einleitung: Die Digitalte Volumentomografie (DVT) erfreut sich
zunehmender Beliebtheit bei radiologischen Untersuchungen im Dentalund HNO Bereich. Die Einsatzmöglichkeiten der DVT wachsen stetig.
Die bildgebenden Möglichkeiten, die die Kegelstrahltomographie mit sich
bringt sind vielfältig und werden ständig weiterentwickelt. Neben
konventionellen Durchleuchtungssystemen, die mit einer 3D-Funktion
ausgerüstet sind, gibt es eine Vielzahl von dedizierten Geräten zur
dreidimensionalen Schädelbildgebung für den Dental- und HNO-Bereich.
Bildqualität und Dosis bei der DVT wurden in letzter Zeit sehr kontrovers
diskutiert. Ziel dieser Arbeit ist es, ein die Organdosis an einem
klinischen DVT-System mit Hilfe von Monte-Carlo Simulationen zu
berechnen.
Material und Methoden: Zur Simulation wurde das Programm
GMctdospp verwendet, welches am Institut für Medizinische Physik und
Strahlenschutz entwickelt wurde und auf dem EGSnrc System zur
Monte-Carlo Simulation von Strahlungstransport basiert. Simuliert wurde
ein ‘Morita Accuitomo 170’ als DVT-Gerät. Dazu wurde die Geometrie
des DVT-Systems in der Simulation berücksichtigt und die Spektren der
eingesetzten Wolframröhre inklusive Vorfilterung vorberechnet. Zur
Kalibrierung wurde das Dosis-Längen-Produkt (DLP) frei in Luft entlang
der Rotationsachse des Systems mit einer 300 mm langen
Ionisationskammer (TYP?) bei unterschiedlichen Röhrenspannungen
gemessen. Aus dem gemessenen DLP wurde die Dosisausbeute für
jede eingestellte Röhrenspannung ermittelt. In äquivalenter Weise wurde
die Dosisausbeute für diesen Kalibrieraufbau aus der Simulation
ermittelt. Der Quotient aus gemessener und simulierter Dosisausbeute
ergibt den zur Simulation der Patientendosis notwendigen
Umrechnungsfaktor, um die absolute Dosis je Röhrenstrom berechnen
zu können. Die Simulationen einer Schädeluntersuchung wurde am
Voxelphantom „ICRP-male“ durchgeführt und die simulierte
Augenlinsendosis mit der gemessenen verglichen. Zur Messung der
Augenlinsendosis wurde ein antropomorphes Schädelphantom
verwendet, bei dem auf den Augen Optisch stimulierte
Lumineszenzdosimeter (OSL) befestigt wurden.
Ergebnisse: Die berechnete und gemessene Augenlinsendosis
stimmen sehr gut überein. Die gemessenen Werte sind, bedingt durch
die Messunsicherheiten der verwendeten OSL-Dosimeter, Streuungen
unterlegen. Da die Absolutdosis linear proportional zum Röhrenstrom ist,
wurden die Messwerte linear interpoliert und die Ausgleichsgerade durch
den Nullpunkt gezwungen. Die so erhaltenen Werte wurden mit den
Werten aus der Simulation verglichen. Die Abweichungen betragen
zwischen 4 und 8 %.
Diskussion: Es konnte gezeigt werden, dass die berechneten
Dosiswerte sehr gut zu Messungen an realen Objekten passen. Die
geringen Abweichungen lassen sich in Messunsicherheiten der
Dosimeter und den leichten, anatomischen Unterschieden der Phantome
(Software- und Hardwarephantom) vermuten.
Die Simulation der Dosisverteilung mittels Monte Carlo Verfahren bietet
eine einfache Möglichkeit, die Patientendosis bei DVT-Untersuchungen,
durch den Einsatz der ICRP-Voxelphantome, bezogen auf den
„Standardpatienten“, zu berechnen. GMctdospp bietet zusätzlich die
Möglichkeit reale CT-Datensätze einzulesen. Dies macht eine
Berechnung der Patientenindividuellen Dosis ebenfalls möglich.
Der Vergleich zwischen gemessenen und berechneten Organdosen
zeigt die Genauigkeit des Verfahrens. Neben der Bestimmung von
Patientendosen bietet die Simulation eine einfache Möglichkeit, den
Erfolg von Optimierungen der Aufnahmeparameter im Bezug auf
Patientendosis zu quantifizieren.
15.7
Simulative Erfolgskontrolle nach Optimierung eines DVTUntersuchungsprotokolls
1
2
2
1
2
J. M. Voigt , C. Güldner , I. Diogo , A. Ningo , J. A. Werner , M.
1
Fiebich ;
1
Institut für Medizinische Physik und Strahlenschutz, Technische
2
Hochschule Mittelhessen, Gießen, Germany, Hals-, Nasen und
Ohrenklinik, Universitätskliniken Gießen und Marburg, Standort Marburg,
Marburg, Germany.
Einleitung:
Röntgensysteme,
die
nach
dem
Prinzip
der
flachdetektorbasierten Kegelstrahltomographie oder auch Digitalen
Volumentomographie arbeiten erfreuen sich großer Beliebtheit. DVTSysteme für den HNO-Bereich liefern hervorragende Bildqualität bei
vergleichsweise niedrigen Anschaffungspreisen. Immer häufiger wird die
Patientendosis bei DVT-Untersuchungen kontrovers diskutiert. Ein
tomographisches Bildgebungssystem (CT oder DVT) arbeitet nach
seiner Auslieferung unter dem Aspekt Patientendosis keineswegs
optimal. Es besteht hohes Optimierungspotential. Die Optimierung der
Untersuchungsparameter ist ein Prozess, der in Zusammenarbeit von
Ärzten, Physikern und MTRAs in relativ kurzer Zeit erfolgreich
durchgeführt werden kann. Monte Carlo Simulationen helfen dabei, das
Ausmaß der Optimierung zu quantifizieren.
Material und Methoden: An einem klinischen DVT-Gerät im HNO
Einsatz wurden die Aufnahmeparameter des NNH-Protokolls optimiert.
Dazu wurden bei verschiedenen Einstellungen Aufnahmen eines
Schädelphantoms angefertigt und von verschiedenen Befundern (HNOMedizinern und Radiologen) bewertet. Auf Basis der so ermittelten
Daten wurden die Untersuchungsparameter neu gewählt. Zur
Quantifizierung des Erfolgs der Optimierung wurden Monte Carlo
Simulationen an zwei anatomischen Voxelphantomen mit den
Einstellungen vor (90 kV 5 mA 360°-Rotation) und nach Optimierung (84
kV 4 mA 180°-Rotation) durchgeführt. Für die Simulationen wurde
GMctdospp verwendet. Dieses Programm wurde im Institut für
Medizinische Physik und Strahlenschutz entwickelt und bietet eine
benutzerfreundliche, grafische Oberfläche. Es basiert auf dem EGSnrc
User Code ctdospp, der ebenfalls im Institut für Medizinische Physik und
Strahlenschutz entwickelt wurde. Aus der Simulation wurden die
Organdosen für mehrere Organe bestimmt und anschließend verglichen.
Ergebnisse: Die Organdosen direkt exponierter Organe, wie Augen und
Augenlinsen, konnten durch die Optimierung um bis zu 80 % gesenkt
werden. Die Dosis in den Speicheldrüsen wurde um ca. 25 % gesenkt.
Die Schilddrüsendosis, die im Vergleich zu der anderer Organe kaum
eine Rolle spielt wurde durch die Optimierung um weite 50 % gesenkt.
Diskussion: Die Ergebnisse zeigen Eindrucksvoll das hohe
Optimierungspotential bei DVT-Untersuchungen im HNO-Bereich und
die Möglichkeiten der Visualisierung des Optimierungserfolgs durch
Monte Carlo Simulationen. Beachtlich ist die Dosisreduktion der Augen
und Augenlinsen von über 80 % bei beiden verwendeten Phantomen.
Dieser Effekt rührt daher, dass es bei DVT-Untersuchungen möglich ist,
nur eine 180°-Rotation um den Patienten zu fahren und diese
strahlenempfindlichen Organe aus dem direkten Strahlenfeld zu
nehmen.
Das verwendete Monte Carlo Simulationsprogramm kann in gleicher
Weise für konventionelle Computertomographie eingesetzt werden und
bietet somit auch die Möglichkeit, Dosis bei CT- und DVTUntersuchungen zu vergleichen.
Session 16: Strahlentherapie Dosisberechnungsalgorithmen und
Monte-Carlo Anwendungen
16.1
Advanced lung treatment using different modalities: comparison of
Acuros XB and AAA dose calculations
E. Vanetti, A. Fogliata, A. Clivio, G. Nicolini, L. Cozzi;
IOSI, Bellinzona, Switzerland.
Purpose: Acuros XB is the new photon dose calculation algorithm
implemented in the Varian Eclipse TPS, based on the solution of the
Linear Boltzmann Transport Equation. Aim of the study was to assess
the impact of using the new algorithms in clinical cases.
Methods: CT dataset of ten patients presenting stage III NSCLC were
selected. All patients were contoured for PTV and organs at risk: lungs,
heart and spinal cord. Plans were created for 6MV beams from a Clinac
2100iX equipped with MLC-120 Millennium. Three modalities were
analysed:
- 3D-CRT: 4-5 fields, no-one entering from contralateral lung. MLC and
wedges were used whenever needed.
- IMRT: 6 fields, no-one entering from contralateral lung.
- RapidArc: 2 partial arcs, no-one entering from contralateral lung.
Calculations were performed with Acuros XB version 11.0, and AAA
version 10.0 with a dose calculation grid of 2.5mm. Acuros XB calculates
the dose (to medium) accounting for the elemental composition of the
patient, selecting the human tissue from predefined HU ranges. Acuros
XB and AAA plans were computed with the same MU.
To distinguish between differences coming from the different
management in heterogeneity to those coming from the algorithm per se
and its configuration, all the plans have been recalculated assigning to
the patient outline of the CT dataset, the water material with HU=0.
To evaluate the Acuros XB algorithm also in terms of its clinical usability,
the computation time was recorded for all plan calculations, and reported
as ratio between calculation time for Acuros XB and AAA.
Results: Differences in dose distributions between the two algorithms in
all cases with water material assignment were <0.5% of the prescribed
dose as mean dose to target and OARs. This suggests ascribing the
differences found in the real CT dataset to the different heterogeneity
management, that is in principle more accurate in the Acuros XB
calculations. PTV dose difference was differentiated between the target
in soft tissue, where the mean dose was found lower of about 2% for
Acuros XB, and the target in lung tissue, where the mean dose was
higher of about 1%. Mean doses to OARs did not present big
differences, being of the order of 0.1-0.2% of the prescription. No
particular differences were found related to the various modalities.
Calculation time ratios were: 14 for 3D-CRT (mean Acuros XB
calculation time 5’51” on a Dell T5500 platform), 12 (mean Acuros XB
4’30”) for IMRT, 0.5 (Mean Acuros XB 6’26”) for RapidArc.
Conclusion: Acuros XB showed differences in PTV dose calculations
for lung cancer treatment with respect to AAA that could be of clinical
interest. The new algorithm was twice as fast for RapidArc calculations,
while AAA remains the fastest for 3D-CRT and IMRT.
16.2
Überprüfung verschiedener Dosisberechnungsalgorithmen im
Bereich hoher Dichten
S. Glessmer, T. Maaß, F. Fehlauer;
Strahlenzentrum Hamburg, Hamburg, Germany.
Einleitung: Totale Endoprothesen werden wegen eines alternden
Patientenklientels immer häufiger eingesetzt. Aus diesem Grund müssen
vermehrt Materialien hoher Dichte bei der Berechnung von
Bestrahlungsplänen
berücksichtigt
werden.
Die
meisten
Dosisberechnungsalgorithmen sind für einen Elektronendichtebereich
konzipiert, der ähnlich dem von körpereigenen Geweben ist. Im Rahmen
dieser
Arbeit
wurde
daher
das
Verhalten
von
Dosisberechnungsalgorithmen
verschiedener
Planungssysteme
insbesondere für Materialien hoher Elektronendichte getestet.
Material und Methoden: Verwendet wurde das Phantom EasyCube
(Euromechanics) aus RW3, Inhomogenitäten aus gewebeäquivalenten
Materialien sowie ein Titaneinschub. Zur Bestrahlungsplanung kamen
die Algorithmen Acuros XB und Analytic Anisotropic Algorithm (AAA) des
Planungssystems Eclipse (Version 11.0.04 Pre-Release, Varian),
Adaptive Convolve und Collapsed Cone Convolution (CCC) des
Planungssystems Pinnacle (Version 9.0, Philips) sowie X-ray Voxel
Monte Carlo (XVMC) und der Finite Size Pencil Beam Algorithmus
(fsPB) des Planungssystems Monaco (Version 2.0, Elekta) zum Einsatz.
51
Basierend auf CTs des EasyCube-Phantoms mit verschiedenen
inhomogenen Einsätzen von 2cm bzw. 4cm Dicke wurden Pläne für
10cm x 10cm Felder berechnet. Zusätzlich wurden Pläne erstellt, bei
denen der Titaneinschub mit relativen Elektronendichten (rED) zwischen
2,0 und 5,0 (einem willkürlich gewähltem Wert, der deutlich über 3,7,
also der relativen Elektronendichte von Titan liegt) überschrieben wurde.
Nach dem Export des Dosiswürfels konnten hieraus die
Tiefendosiskurven ermittelt werden.
Ergebnisse:
Der
Vergleich
von
Tiefendosiskurven
im
Festwasserphantom zeigt bei den fast wasseräquivalenten Materialen
Fett (rED=0,952) und Muskel (rED=1,043) gibt es nur geringe
Unterschiede zwischen den Algorithmen. Bei lungen- und
knochenäquivalentem Material wird die Streuung bzw. Schwächung an
der Grenzfläche Inhomogenität-Wasser vom fsPB nicht sowie vom
Adaptive Convolve und CCC deutlich schwächer als von den anderen
Algorithmen dargestellt.
Für Titan ergeben sich deutliche Unterschiede zwischen den Ergebnisen
der verschiedenen Planungssysteme in Abhängigkeit davon, ob die
Struktur mit einer definierten Elektronendichte überschrieben oder ob
der aus dem CT ermittelte Wert für die Berechnung verwendet wurde.
Alle Algorithmen berechnen ohne Dichte-Überschreibung eine zu
geringe Schwächung. Bei Verwendung von Acuros XB und Zuordnung
des Materials „Titanium alloy“ (rED=3,5156) sind Rückstreuung und
Schwächung in der Tiefendosiskurve intensiv erkennbar, deutlicher als
bei Verwendung von XVMC und einer höheren rED. Bei allen
Algorithmen außer Acuros XB steigt die Stärke der Rückstreuung bzw.
der Schwächung der Strahlung bei steigender Elektronendichte.
Wird in Monaco mit Hilfe der „density override“-Funktion ein größerer
Elektronendichte-Wert als der Maximalwert der Zuordnungstabelle
eingegeben, wird dieser und nicht der Maximalwert verwendet. Beim
Eclipse-Algorithmus Acuros XB ist für die korrekte Dichtedarstellung die
Zuordnung des entsprechenden Materials entscheidend, da der
Algorithmus nicht auf der Basis von Elektronendichten, sondern
physikalischen Dichten rechnet.
Diskussion: Für gewebeäquivalente Materialien zeigen einige der
Algorithmen gegenüber XVMC leichte Schwächen. Insbesondere Effekte
an Grenzflächen zwischen zwei Medien werden häufig nicht realistisch
dargestellt, was zumindest beim fsPB aufgrund des Pathlength Scaling
Konzeptes auch nicht möglich ist. Für dichte Medien wie Titan kann die
Schwächung nicht realistisch dargestellt werden. Sowohl beim XVMC
als auch beim Acuros XB ist die Darstellung von Rückstreuung und
Schwächung für dichtere Materialien besser, sofern die jeweilige
Struktur mit einer realistischen Elektronendichte überschrieben wird.
16.3
Comparison between Acuros XB and Brainlab Monte Carlo
algorithms for photon dose calculation
M. Misslbeck;
Klinik rechts der Isar / Strahlentherapie, Munich, Germany.
This work is a comparison between the new Acuros XB dose calculation
algorithm that runs within the Eclipse planning software by Varian
(Varian Medical Systems, Palo Alto, CA) and the Monte Carlo algorithm
XVMC implemented into the planning software iplan RT by Brainlab
(Brainlab oncology solutions, Germany). Furthermore both methods are
compared to the well established analytical anisotropic algorithm (AAA),
also by Varian. All three dose calculators are implemented into the
planning systems in daily use in our clinic, whereas only the AAA is so
far used in patient treatment.
First we applied simple square fields to two different artificial phantoms:
A "slab phantom" 30x30x30 ccm with a 3 cm water layer on top, followed
by a 2 cm bone layer, a 7 cm lung layer and another 18 cm water layer
as seen by the beam entering the phantom from top. Second, a "lung
phantom" with water surrounding a lung layer of 10 cm depth starting at
5 cm but reaching only from one side to center. For the slab phantom we
compared depth dose curves along central beam axis (CAX) for square
field sizes 2.5, 5, 10 and 20 cm. The lung phantom was used to compare
profiles at depth 10 cm with CAX along the boarder of the lung layer.
Moving on to clinical cases we used the CT of a head and neck patient
treated in our clinic. The original plan calculated only with the AAA was
recalculated using Acuros and XVMC. To evaluate the differences, dose
volume histograms (DVHs) of the planning target volume (PTV) were
compared.
Results: No differences to be seen between all three algorithms if the
phantom heterogeneity was turned off, i.e. the whole phantom regarded
as water. Only minor differences showed up between Acuros and XVMC
in all artificial phantom depth doses and profiles. Not so the AAA, which
deviated by up to 10% in CAX, slightly depending on field size for depth
dose and a few percent for profiles in the lung phantom, strongly
depending on the depth at which the profile was taken. On the other
hand, these deviations did not translate directly into the clinical case,
where the DVHs of Acuros, XVMC and AAA turned out to be close to
each other in the case of open fields. Disturbingly, in case of an IMRT
52
plan the DVH of the PTV was shifted to higher dose by about 7% for the
XVMC compared to Acuros and AAA, which now were close to each
other.
Conclusion: Only within artificial phantoms with clearly separated layers
of simulated tissue, AAA shows differences on layer boundaries
compared to XVMC or Acuros. In a real patient case those differences
level out, if searched after in a PTV's DVH. Instead, the smaller the field
sizes in IMRT, the more the DVH of XVMC is moved to higher dose
compared to Acuros and AAA.
16.4
Teletherapie mit ausgleichsfilterfreien Strahlen: Dosimetrische
Genauigkeit von Planungssystemen
D. Albrich, H. Prokesch, G. Kragl, D. Georg;
Universitätsklinik für Strahlentherapie, Abteilung für Medizinische
Strahlenphysik, Medizinische Uni, Wien, Austria.
Ziel: Das Ziel der Studie war ein Vergleich der dosimetrischen
Genauigkeit zwischen komplexen Dosisberechnungs-Algorithmen für
hochenergetischen Photonenstrahlen mit (FF) und ohne Ausgleichsfilter
(FFF). Aufgrund einer geringeren Variation der StrahlerkopfStreufaktoren mit der Feldgröße und einer weniger ausgeprägten
Aufweichung der Strahlen abseits der Zentralstrahlachse ergibt sich für
FFF-Strahlen eine potentiell erhöhte dosimetrische Genauigkeit.
Material und Methoden: Zwei Dosisberechnungs-Algorithmen wurden
verglichen: der enhanced-collapsed-cone-Algorithmus (eCC) (Oncentra
Masterplan v3.2) und der XVMC Monte Carlo (MC) Code (Monaco VSM
1.6). Basisdaten von 10MV Photonenstrahlen mit und ohne
Ausgleichsfilter, appliziert mit einem modifizierten Elekta Precise Linac,
wurden erhoben und in die Planungssysteme implementiert. Die
Testfälle
beinhalteten
Einzelstrahl-Anordnungen,
konformale
Mehrfeldertechniken sowie IMRT-Pläne. Messungen wurden mit
Ionisationskammern,
EBT2
Filmen
in
Phantomen
aus
wasseräquivalenten Platten, dem heterogenen CIRS Thorax-Phantom
und mittels eines 2D Dioden-Arrays (Delta4) durchgeführt. Für die
Einzelstrahl-Tests wurden ein Platten- und das CIRS Phantom
verwendet. Die konformalen Pläne sowie fünfzehn IMRT Pläne wurden
sowohl auf das Delta4 appliziert und als auch mit in Plattenphantomen
positionierten EBT2 Filmen verifiziert. Die dosimetrische Beurteilung
erfolgte über Absolutdosimetrie und 1D γ-Index-Analyse von
Tiefendosis- und lateralen Profilen entlang und abseits der
Zentralstrahlachse. Die γ-Kriterien für die Einzelstrahl-Tests waren 2mm
DTA und 2% Dosisvarianz; für die zusammengesetzten Pläne wurden
zur 2D und 3D γ-Auswertung jeweils 3mm und 3% verwendet.
Ergebnisse: Die Abweichungen zwischen berechneter und gemessener
Dosis (Absolutdosimetrie mit Ionisationskammer) mit dem CIRS
Phantom betrugen nach Korrektur für den Tagesoutput des
Linearbeschleunigers und Materialdichte 0.1±0.8/0.5±1.7% (FF/FFF) für
eCC und 0.8±0.8/0.0±1.0% (FF/FFF) für MC. Bei der 1D γ-Evaluierung
wurden γmean und γmax von 36 Linienprofilen für beide Algorithmen
ausgewertet. Im Mittel lagen die γmean Werte bei 0.53±0.28/0.46±0.22 für
MC und FF/FFF. Für eCC waren die entsprechenden Werte für FFF
signifikant kleiner (p<0.05): 0.42±0.27/0.38±0.26 (FF/FFF). Für die
durchschnittlichen γmax Werte war zwischen FF und FFF kein
signifikanter Unterschied feststellbar, jedoch waren die gesammelten
Ergebnisse von γmax für eCC um 0.42 kleiner als für den MC
Algorithmus. Beim Vergleich der Genauigkeit der Algorithmen in Bezug
auf die durchschnittlichen γmean Werte ergab MC signifikant verbesserte
Werte für FFF-Strahlen. Betrachtet man ausschließlich Profile abseits
der Zentralstrahlachse, konnten im Durchschnitt signifikant reduzierte
γmean Werte für beide Algorithmen festgestellt werden (MC: 0.55±24 vs.
0.45±0.21, eCC: 0.41±0.24 vs. 0.35±0.22). Im Zentralstrahl wurden
keine signifikanten Unterschiede detektiert. Alle konformalen und IMRTPläne zeigten ähnliche Ergebnisse für FF und FFF. Alle IMRT-Pläne,
berechnet mit dem eCC-Algorithmus, erfüllten mit Delta4 die
Akzeptanzkriterien von 95% aller Messpunkte mit γ-Werten kleiner als 1.
Schlussfolgerungen: Die untersuchten Algorithmen zeigten eine
präzise Dosisberechnung sowohl für konventionelle als auch für
ausgleichsfilterfreie Photonenstrahlen. Im heterogenen Phantom lieferte
der MC-Algorithmus, verglichen mit eCC, bessere Ergebnisse. Die
exaktere Modellierung von FFF-Strahlen abseits des Zentralstrahls für
Einzelstrahl-Tests spiegelte sich nicht direkt in einer höheren
dosimetrischen Genauigkeit komplexer Pläne wider.
16.5
Monte Carlo beam model for photon MLC based MERT
1
1
1
1
2
D. Henzen , P. Manser , D. Frei , W. Volken , H. Neuenschwander , E.
1
1
J. Born , M. K. Fix ;
1
Division of Medical Radiation Physics, Inselspital – University of Bern,
2
Bern, Switzerland, Clinic for Radiation-Oncology, Lindenhofspital, Bern,
Switzerland.
Introduction: For superficial tumors as breast cancer intensity
modulated electron therapy would be useful to reduce doses in normal
tissue or organs at risk compared to the standard treatment using
photons beams. One approach in order to deliver the electron
modulation is to use a photon multi leaf collimator (MLC). Although
Monte Carlo (MC) dose calculation is well established for electron
beams using electron applicators [1], currently there is no treatment
planning system available which could calculate dose distributions for
MLC based electron treatments. This is due to the lack of a suitable
beam model which takes the photon MLC into account. Thus, the goal of
this work was to define a beam model for modulated electron
radiotherapy based on an already existing beam model including the
photon MLC.
Material and Methods: The main diverging electron and photon sources
which represent the particles coming from the scattering foil and the
electron and photon line sources located at the secondary collimator
representing the head scatter radiation based on the already existing
beam model have been used to reconstruct the beam above the photon
MLC. These sources have been configured using both measurements
and MC simulations. Thereby the main electron fluence as well as the
electron energy spectra of the sources have been determined from in air
profile measurements (inline and crossline) and from the absolute depth
dose curve both for a 35x35 cm2 field size at a source to surface
distance of 70 cm with the MLC fully retracted and for each available
electron beam energy. The other quantities have been determined by
MC simulations. For this purpose the linear accelerator head has been
modeled in BEAMnrc. Due to complex geometry of the photon MLC, an
in-house developed MC method has been used for the radiation
transport through the MLC. Particles exiting the MLC towards the patient
will be passed to the electron macro MC [2] dose calculation algorithm.
The proposed beam model has been configured for electron beam
energies of 4, 6, 9, 12, 16, 20 and 22 MeV of a Clinac 2300C/D and a
TrueBeam (both from Varian Medical Systems).
Results: The implementations of the linear accelerator into BEAMnrc
and of the beam model into a C++ environment have successfully been
carried out. The beam model has been configured for all the beam
energies of both linear accelerators considered. The configuration
measurements have been reproduced successfully.
Discussion: A new beam model taking into account the photon MLC
has been developed and successfully configured. First results
demonstrate that the beam model has the potential to be used for
modulated electron radiotherapy.
This work was supported by Varian Medical Systems.
References:
[1] M.K. Fix, D. Frei, W. Volken, H. Neuenschwander, E.J. Born, P.
Manser, ”Electron Monte Carlo dose calculation in Eclipse for Elekta
linear accelerators,” Med. Phys. 37, 3283 (2010).
[2] H. Neuenschwander and E.J. Born, “A macro Monte Carlo method for
electron beam dose calculations,” Phys Med Biol 37, 107-25 (1992).
53
16.6
Erstellen eines Monte Carlo basierten Linearbeschleunigermodells
im Rahmen des EURADOS-Projekts „Computational Dosimetry“
D. Czarnecki, V. M. Barrois, L. Vogelgesang, J. Wulff, K. Zink;
Institut für Medizinische Physik und Strahlenschutz, Giessen, Germany.
Einleitung: Die folgende Arbeit basiert auf der von der European
Radiation Dosimetry Group (EURADOS) Working Group 9th (WG 9)
"Computational Dosimetry" ins Leben gerufenen Übung "LINAC Monte
Carlo simulation exercise". Ziel dieser Übung ist es, von möglichst vielen
europäischen Gruppen einen Monte-Carlo basierten, virtuellen
Linearbeschleuniger erstellen zu lassen und damit ein Benchmark
unterschiedlicher Monte Carlo Codes zu erzielen. Die WG 9 hat für
diesen Zweck alle relevanten Daten des Linearbeschleunigerkopfes
SATURNE
43
veröffentlicht.
Technische
Zeichnungen,
Materialbeschreibungen des Beschleunigerkopfes und des Phantoms
sowie eine gemessenen Tiefendosiskurve und ein Querprofile bei der
Feldgröße (10x10)cm² lagen vor. Aus diesen Daten konnte ein Modell
des SATURNE 43 erstellt werden und aus Monte-Carlo Simulationen die
Dosis in einen Phantom bestimmt werden. Die simulierten
Dosisverteilungen wurden durch die Modellierung des Elektronenstrahls
an die Messwerte angeglichen. In dieser Arbeit soll die Vorgehensweise
bei der Modellierung des Elektronenstrahls erläutert werden.
Material und Methode: Für die Monte-Carlo Simulationen wurde das
Programm
Paket
EGSnrc
und
BEAMnrc
verwendet.
Der
Beschleunigerkopf wurde mit BEAMnrc simuliert. Die Dosisiverteilung im
Phantom wurde mit dem User Code DOSxyznrc simuliert. Als
Anfangswert wurde ein monoenergetischer Elektronenstrahl mit der
Energie von 12MeV benutzt. Die Energie wurde variiert bis eine
bestmögliche Anpassung der simulierten Tiefendosiskurve an die
Messwerte erzielt wurde. Im zweiten Schritt wurde das Querprofil
angepasst in dem die Größe des Brennflecks verändert wurde. Nach
Anpassung der Brennfleckgröße, konnte danach die Divergenz des
Elektronenstrahls variiert werden. Nach der Änderung der Divergenz
wurden die Größe und die Energie des Brennflecks wieder überprüft.
Aus
diesen
Variationen
am
Elektronenstrahl
konnten
die
Tiefendosiskurve und das Querprofil der Simulation an die Messwerte
angepasst werden. Nach der Modellierung des Linearbeschleunigers
wurde ein Phase Space File erzeugt, welches für weitere
Dosisberechnungen in inhomogenen Phantomen benutzt wurde.
Ergebnisse: Die Erstellung des virtuellen Linearbeschleunigers konnte
aufgrund
der
guten
technischen
Dokumentation
des
Linearbeschleunigers erfolgreich durchgeführt werden. Durch Anpassen
der freien Parameter: Energie der primären Elektronen, Brennfleckgröße
und die Divergenz des Elektronenstrahls, ließen sich die gegebenen
Messungen reproduzieren, wobei eine maximale Abweichung von 1%
zwischen den Messwerten der relativen Tiefendosiskurve im homogenen
Wasserphantom und den relativen Dosiswerten aus der Simulation
erreicht werden konnte. Das Quadratische Mittel aus der Differenz
zwischen Messwert und Simulation der relativen Tiefendosiskurven
betrug 0.003. Bei dem Querprofil Betrug die Maximale Abweichung 6 %.
Diese hohe Abweichung wurde an den Kanten des Querprofils erreicht.
Das Quadratische Mittel zwischen den Querprofilen betrug 0.2. In
Abbildung 1 wurden beispielhalft zwei berechnete Querprofile in einem
inhomogenem Wasserphantom dargestellt.
Abbildung 1: Berechnete Querprofile in 22cm und in 25cm Tiefe eines
inhomogenen Wasserphantoms. Die Inhomogenitäten bestanden aus
zwei Rechtecken, welche wie zwei Lungenflügel angeordnet waren und
gleiche atomare Zusammensetzung wie eine Lunge besaßen.
16.7
Dose output calculation for lead shielded fields in orthovoltage
radiotherapy using Swiss Monte Carlo Plan
D. Frauchiger, D. Terribilini, B. Isaak, P. Manser, D. Frei, W. Volken, M.
K. Fix;
Division of Medical Radiation Physics, Inselspital and University of
Berne, Bern, Switzerland.
Introduction: In orthovoltage radiotherapy the dose calculation is mainly
based on measured depth dose curves and output factors in water for
54
the energies and add-ons used. Scars and colloids are often treated
using partially blocked open beams. Due to difficulties in low energy
dose calculations using analytical models and since measurements of
complex block shapes are very challenging, Monte Carlo dose
calculation is an appropriate alternative for these situations. The goal of
this work is to calculate the dose distribution of partially lead blocked
1
orthovoltage beams using the Swiss Monte Carlo Plan (SMCP) .
Material and Methods: In a previous work, the PANTAK DXT300 was
2,3
implemented in BEAMnrc in order to assess the beam properties and
to generate a beam model based on phase space data. These phase
spaces are used in SMCP to calculate the dose distributions. For
validation purposes, calculated and measured dose profiles and
percentage depth doses (PDD) in water for unblocked fields are
compared and analyzed by the gamma analysis using criteria of 3% of
the normalization dose value and 3 mm for voxels with a dose of at least
10 % of the normalization dose value. Then partially blocked fields are
calculated applying the validated phase spaces. As shielding material
lead leaves with a thickness of 0.2 mm are used. Dose calculations are
2
carried out for different quadratic cutout sizes from 1x1 cm up to
2
8x8 cm as well as more complex shapes as e.g a Y-shape and
2
compared with the unblocked 10x10 cm . For all calculations a dose grid
3
of 2.5 x 2.5 x 0.2 mm was used.
2
Results: Calculated and measured PDDs for the 10x10 cm field at
100 kV agreed in 100% of the calculated points for the gamma criteria of
3 mm/3 %. The same results were found for the relative dose profiles at
2
5 mm depth in water. The partially blocked 10x10 cm fields at 5 mm
depth for 100 kV using 0.2 mm lead result in output factors ranged from
2
2
0.80 to 0.99 for the 1x1 cm to 8x8 cm blocked field sizes with respect
2
to the 10x10 cm unblocked field.
Discussion: Output factor calculations of an orthovoltage device were
performed with SMCP using phase space data derived from MC
simulations using the BEAMnrc user code. Thus, SMCP has the
potential to accurately calculate output factors for routine orthovoltage
radiotherapy with lead shielded treatment fields.
References:
[1] Fix M K et al, An efficient framework for photon Monte Carlo
treatment planning, Phys. Med. Biol. 52, N425-N437, 2007
[2] Kawrakow I, Rogers DWO, The EGSnrc Code System: Monte Carlo
Simulation of Electron and Photon Transport, NRCC Report PIRS-701,
2003
[3] Frauchiger D et al, Implementation of the PANTAK DXT300 into the
Swiss Monte Carlo Project environment, a feasibility study, EWG MCTP
2009, Cardiff
Anomalien besitzen die größten Einschränkungen im alltäglichen
Objektunterscheidungsvermögen.
Literatur:
[1] M.Schürer, et al.: Klin Monatsbl Augenheilkd (2009) 546-554.
[2] A. Walter, et al.: J Opt Soc Am A (2009) 2219-2225.
Session 17: Optische Bildgebung Morphologie, Kontrasterhhung und
Gewebsfunktion
17.3
Messsystem zur Quantifizierung des Einflusses von
Farbsinnstörungen auf das Objektunterscheidungsvermögen
1,2
3,2
4
5,2
4,2
M. Schürer , A. Walter , B. Zelzer , H. Brünner , A. Langenbucher ;
1
OncoRay - National Center for Radiation Research in Oncology, TU
2
Dresden, Dresden, Germany, Institut für Medizinische Physik,
3
Universität Erlangen-Nürnberg, Erlangen, Germany, Sill Optics GmbH &
4
Co. KG, Wendelstein, Germany, Experimentelle Ophthalmologie an der
5
Universität des Saarlandes, Homburg, Germany, VisioCraft GmbH,
Erlangen, Germany.
Hintergrund: Die Farbwahrnehmung kann durch kongenitale oder
erworbene Pathologien im Bereich der Retina oder der weiterleitenden
Nervenbahnen beeinträchtigt sein. Je nach Form und Ausprägungsgrad
sind farbliche Unterschiede schlechter oder nicht mehr wahrnehmbar.
Diese
Beeinträchtigung
hat
Einfluss
auf
das
Objektunterscheidungsvermögen.
Neben
der
eingeschränkten
Farbwahrnehmung besitzen Farbfehlsichtige eine daraus resultierende
veränderte Hellempfindung. Farben gleicher Leuchtdichte werden
unterschiedlich hell wahrgenommen wodurch das verminderte
Farbunterscheidungsvermögen teilweise kompensiert werden kann.
Im Beitrag wird ein Messsystem erläutert, welches bei
Farbsinnstörungen das Unterscheidungsvermögen zwischen Farben auf
Basis von Farb- und empfundenen Helligkeitsunterschieden erfasst. An
einer Studie mit 12 farbfehlsichtigen Probanden wird der
Zusammenhang zwischen Unterscheidungsvermögen und Grad der
Ausprägung der Farbsinnstörung dargelegt.
Methode: Das Messsystem nach Walter & Schürer [1, 2] nutzt für die
objektive Erfassung des Unterscheidungsvermögens zwischen Farben
das Gleichheitsverfahren der Farbmesstechnik. Dem Probanden werden
in einem kreisrunden vertikal geteilten Testfeld eine Reihe von
Farbpaaren nacheinander zum Vergleich dargeboten. Dabei muss mit
einer Ja/Nein Entscheidung beurteilt werden, ob zwischen den beiden
Farben eines Farbpaares ein Unterschied wahrnehmbar ist. Auf
Grundlage der eingesetzten Simple-Up-Down-Methode vergrößert oder
verkleinert sich der Farbunterschied des darauffolgenden Farbpaares in
Abhängigkeit vom Antwortverhalten. Damit wird gewährleistet, dass die
Farbdifferenz zwischen den beiden Testfeldhälften auf einen gerade
noch wahrnehmbaren Unterschied konvergiert. Die zu differenzierenden
Farbreizpaare werden jeweils für 900 ms dargeboten. Dazwischen wird
auf dem Testfeld zur Kontrolle der chromatischen Adaptation für 2,7 s
ein Neutralreiz präsentiert.
Die
Studie
beschreibt
das
Unterscheidungsvermögen
zum
Referenzfarbwert gelb (u’ = 0,2487 v’ = 0,5433) bei Probanden mit
unterschiedlich
stark
ausgeprägten
Protanund
DeutanFarbsinnstörungen. Dafür wurde von diesem Referenzfarbwert
ausgehend in 6 Farbrichtungen jeweils eine Unterscheidungsschwelle
erhoben. Über diese 6 Schwellenwerte konnte ein ellipsenförmiger
Farbraum definiert werden innerhalb welchem keine Unterscheidung zu
dieser gelben Referenzfarbe möglich ist. Zur Quantifizierung der
farbfehlsichtigkeitsbedingten Veränderungen wurden die Ergebnisse mit
Daten einer farbnormalsichtigen Probandengruppe verglichen und für
jeden farbfehlsichtigen Probanden am HCR Anomaloskop die
„Einstellbreite“ erfasst, welche nur das Farbunterscheidungsvermögen
nicht aber den Einfluss der veränderten Hellempfindung beschreibt.
Ergebnisse: Wie Abbildung 1 und 2 zeigen, besitzt das individuelle
Unterscheidungsvermögen der farbfehlsichtigen Probanden sowohl für
Protan- als auch für Deutanstörungen gegenüber Farbnormalsichtigen
deutlich erhörte Schwellenwerte. In Richtung der charakteristischen
Farbverwechslungsachsen
(Rot-Grün-Farbachse)
sind
diese
Schwellenwerte bis um das 10fache erhöht. Entlang der senkrecht dazu
verlaufenden Blau-Gelb-Farbachse zeigen sich im Vergleich zur
Normalgruppe teilsweise geringere aber auch bis mehr als das 2fache
höhere Werte.
Eine Gegenüberstellung der Schwellenwerte entlang der beiden
Farbachsen mit den individuellen probandenspezifischen Einstellbreiten
am
Anomaloskop
verdeutlicht
die
Abhängigkeit
des
Unterscheidungsvermögens vom Grad der Anomalie. Mit zunehmender
Einstellbreite nimmt das Unterscheidungsvermögen zuerst ab, erreicht
bei mittelgradigen Anomalien seinen Minimalwert und steigt für
halbextreme und extreme Anomalien und Anopien wieder an.
Schlussfolgerung: Auswirkungen von Farbsinnstörungen auf das
Objektunterscheidungsvermögen werden teilweise durch die veränderte
Hellempfindung vor allem bei höhergradigen Anomalien und Anopien
kompensiert.
Das
Unterscheidungsvermögen
bei
einer
Farbwahrnehmungsanopie liegt somit auf einem ähnlichen Niveau wie
bei einer einfachen Anomalie. Probanden mit mittelgradig ausgeprägten
17.4
Multispectral OCT in dermatology
1
2
1
1
3
A. Alex , J. Weingast , B. Považay , B. Hofer , C. Kendall , C.
4
3
2
1
Glittenberg , N. Stone , H. Pehamberger , W. Drexler ;
1
Centre for Medical Physics and Biomedical Engineering, Vienna,
2
Austria, Department of Dermatology, Medical University Vienna,
3
Vienna, Austria, Biophotonics Research Group, Gloucestershire
4
Hospitals NHS Foundation Trust, Gloucester, United Kingdom, Rudolf
Foundation Clinic Vienna, Ludwig Boltzmann Institute, Vienna, Austria.
In 2008, International Agency for Research on Cancer, which is a part of
the World Health Organization, submitted a report predicting that the
annual cancer incidence rate could further increase by 60% to 21.4
million cases by 2030. The most important factor in cancer management
is the diagnosis of tissue malignancy as early as possible, when the
treatment is most effective. Histological examination of the cancerous
cells obtained through biopsy is still the gold standard in cancer
diagnosis. Optical Coherence Tomography (OCT) is one of the
promising non-invasive biomedical imaging techniques capable of
generating three dimensional in vivo images of tissue morphology with
micrometre-scale resolution. In most of the biological tissues, the major
limiting factor of OCT is its reduced penetration depth due to the strong
scattering and absorption of light. But the imaging depth of around 1 - 2
mm offered by OCT is comparable to the depth with which many
biopsies are performed. In addition, many diagnostically important
changes in the tissue morphology occur at the epithelial surfaces of
organ lumens. In the past two decades, development of ultra-broadband
light sources, advances in fibre optics and introduction of frequency
domain techniques have led to significant improvements in resolution,
detection sensitivity and image acquisition speed of OCT. It is a
relatively simple optical imaging technique, which does not require any
contact medium and can be easily integrated to catheter endoscopes.
These factors make OCT a promising candidate for tumour imaging
applications. Several ex vivo and in vivo tumour investigations have
been conducted using OCT on different types of tissues. However,
55
further systematic studies are needed to realize the potential of OCT in
tumour diagnostic applications.
Ex vivo imaging of different stages of oesophageal and colon tumour
samples using OCT has been demonstrated at 800 nm, 1060 nm and
1300 nm to investigate the optimum wavelength region for tumour
diagnosis. These OCT systems were capable of acquiring images in real
time with ~3 µm, ~7 µm and ~8 µm axial resolutions and <15 µm
transverse resolutions. Histology of these samples was obtained to
confirm the grade of tumour samples and for comparison with OCT
images. All three OCT systems could delineate microstructural changes
associated with various tumour stages. In addition to the ex vivo tumour
samples, OCT images of normal skin were obtained in vivo in order to
analyse the performance of these three wavelength regions. 800 nm
images provided better contrast over other two wavelength regions.
However, 1300 nm wavelength region was needed for deeper
penetration in highly scattering samples. Hence, a dual wavelength OCT
system operating at 800 nm and 1300 nm wavelength regions were
developed for obtaining dermal images with high contrast and deeper
penetration simultaneously. This 800/1300 nm dual wavelength OCT
system was used to obtain 3D images of various dermal pathologies in
vivo.
Session 18: Optische Bildgebung II
18.1
Polarization sensitive imaging of the human retina by optical
coherence tomography at 840 nm and 1030 nm
T. Torzicky, E. Götzinger, M. Pircher, S. Zotter, M. Bonesi, C.
Hitzenberger;
Medical University of Vienna, Vienna, Austria.
Purpose: To compare polarization sensitive optical coherence
tomography (PS-OCT) system performances in the 840 nm and the
1030 nm wavelength region for imaging the human ocular fundus in vivo.
Methods: For our comparison we used a spectrometer based PS-OCT
system in the 840 nm wavelength region which has been presented
previously and has been used for imaging of a variety of retinal
diseases. Furthermore we developed a novel PS-OCT system working
at a central wavelength of 1030 nm. Light in this wavelength region is
less absorbed by the retinal pigment epithelium and therefore higher
penetration depths in retinal imaging are achievable. Polarization
characteristics of different layers of the ocular fundus were investigated
using both systems. Intensity, retardation, fast axis orientation and
degree of polarization uniformity values were calculated from the
acquired data and the results were compared for the different PS-OCT
systems.
Results: Measurements on healthy human volunteers were performed
with both instruments and 2D and 3D data sets of the fovea centralis and
the optic nerve head were acquired. With both systems we were able to
clearly visualize the retinal pigment epithelium and its depolarizing
characteristics and the retardation caused by birefringent tissues like the
retinal nerve fiber layer. The 840 nm system demonstrated a better
resolution for the inner retinal layers compared to the 1030 nm system.
Higher penetration depth and better visualization of choroid and sclera
region were shown with the 1030 nm set up.
Conclusion: Both systems provided tissue specific contrast for retinal
pigment epithelium and retinal nerve fiber layer. The 840 nm system was
especially suited for anterior retinal layers down to the retinal pigment
epithelium, while the 1030 nm system was superior for imaging deeper
layers, down to the sclera.
18.2
Visualization of human retina microvasculature in vivo by dualbeam phase-resolved Doppler optical coherence tomography
S. Zotter, M. Pircher, T. Torzicky, M. Bonesi, E. Götzinger, R. Leitgeb,
C. Hitzenberger;
Medical University of Vienna, Vienna, Austria.
We present a double-beam phase resolved Doppler optical coherence
tomography (OCT) system for visualizing the microvasculature within the
human retina. Classical phase resolved Doppler OCT systems measure
the phase difference between adjacent A-scans. This phase difference is
directly proportional to the velocity of the moving particle. This technique
has proven to be a powerful, non invasive, in vivo imaging tool for
measuring and visualizing larger vessels within the retina. But it is not
capable of resolving the microvasculature where the flow speed is very
low. In order to resolve the fine capillary network the timing between
adjacent A-scans has to be in the order of ~1ms. This measurement
speed would make the time which is necessary to acquire a 3D capillary
flow image in vivo prohibitively long. Furthermore, the phase washout
due to sample motions would severely degrade the signal quality. The
system presented in this work overcomes this problem by using a
double-beam scanning approach. The sample arm beams of two
identical spectral domain OCT systems are combined such that there is
a small horizontal offset between them at the retina. Two tomograms
which are separated in time are recorded and the phase difference is
calculated between them. This approach allows us to delay the time
between the two necessary phase measurements arbitrarily without the
need to adjust the acquisition time. By combining the phase difference
information with the recorded intensity images we generate 3D maps of
the capillary network of the human retina with a high dynamic range.
Measurements on healthy human volunteers were performed and the
extracted 3D vessel maps are displayed as en face projections. The
appended figure shows an image which is stitched together from several
measurements ranging from the optic disk towards the fovea. The
measurement results proof that our dual-beam phase-resolved Doppler
optical coherence tomography system is capable of visualizing not only
the major vessels but also the microvasculature within the human retina
in vivo.
56
18.3
Ophthalmische optische Kohärenztomographie bei 1060nm mit
erhöhter Messtiefe.
1
2
3
4
4
B. Povazay , I. Böttcher , M. Esmaeelpour , B. Hofer , W. Drexler , R.
5
3
Engelhard , S. Binder ;
1
2
Medizinische Universität Wien, Wien, Austria, Heidelberg Engineering,
3
Wien, Austria, Ludwig Boltzmann Institut, Rudolfstiftung, Wien, Austria,
4
5
Medical University Vienna, Wien, Austria, Heid, Wien, Austria.
Die optische Kohärenztomographie ermöglicht die berührungslose
Erstellung drei-dimensionaler Schnittbilder unter Verwendung der
Weißlichtinterferometrie. Das größte Anwendungsgebiet ist die
Augenheilkunde und hier im Speziellen der Bereich der Netzhaut. Die
starke Streuung und Absorption am stark melaninhaltigen retinalen
Pigmentepithel zwischen der Netzhaut und dem Choroid kann mit Hilfe
von neuen Lichtquellen und Detektoren signifikant verringert werden.
Dabei werden die zentralen Wellenlängen der breitbandigen Strahler
vom üblichen 800nm in den 1060nm Bereich verschoben.
Die Rasterabtastung über einen Bildbereich von 512x512 lateralen mal
512-1024 Tiefenpunkten benötigt weniger als drei Sekunden. [Grafik1]
Gemeinsam mit einem Augentracker, zur Verfolgung und Kompensation
von Augenbewegungen, erlaubt das neue System Einblicke in das tiefer
gelegene
Blutgefäßsystem
des
Choroids
und
eröffnet
Quantifizierungsmöglichkeiten um Krankheiten die die Blutversorgung
der retinalen Photosensoren beeinträchtigen frühzeitig zu erkennen. Das
kohärente Licht verursacht normalerweise Speckle, die die Auflösung
und Sichtbarkeit beeinträchtigen. Durch die kontinuierliche Bewegung
des Auges zusammen mit dem Tracking werden diese Artefakte effektiv
unterdrückt.
Die parallele Einkoppelung zweier Lichtquellen in beiden
Frequenzbereichen ermöglicht erstmalig einen punktgenauen Vergleich
der beiden Wellenlängenbereiche auch bei Patienten, so wie eine
Extraktion von differentiellen strukturellen Informationen.
18.4
Towards Functional Imaging Using Optical Coherence Tomography
remains challenging. Furthermore, beating effects due to self
interference distort the extracted absorption values.
2. Combined Photoacoustic and OCT: Photoacoustic imaging (PAI) is
a promising candidate to be combined with an all optical imaging
modality such as OCT. Photoacoustic is complementary to OCT: the first
is sensitive to absorption, the latter is sensitive to backscattering of light.
Since PAI is highly sensitive on wavelength dependent absorption it is
much more promising to extract physiological blood parameters, i.e.
haemoglobin concentration and oxygen saturation from the PA signal
than from the scattering dominated SOCT signal. We present preliminary
results in combining the two modalities into one device, leading to a
more robust detection and better quantification of absorption than
possible with SOCT alone.
3D tomograms of the skin from a five weeks old female hairless mouse
obtained using this multi-modal OCT/PAI system are displayed in Figure
1. OCT and PA images were obtained sequentially from the same
location and the imaging times were ~10 s and ~4 minutes, respectively.
OCT and PA images were co-registered and combined to display the
vascular information obtained from PAI, together with the superficial
structural information provided by OCT. This multi-modal PAI/OCT
approach enables visualization of vasculature as deep as 3 mm and is
clearly able to distinguish blood vessels from other weakly scattering
micro-morphological features seen in OCT.
3. Optophysiology: Optophysiology is a functional extension to OCT
applied in ophthalmology. During the OCT measurement a synchronized
visual stimulus is applied to the retina. The temporal and localized
change of the OCT signal indicates activated areas. Transferring this
technique to the living human remains challenging due to the presence
of motion artifacts. Presented are an introduction into this technique and
recent results with 1 ms time resolution.
18.5
Single-shot optical sectioning using polarization-coded structured
illumination
1
2,3
1,2,3
B. Hermann, B. Hofer, B. Povazay, A. Alex, W. Drexler;
Zentrum für Medizinische Physik und Biomedizinische Technik, Wien,
Austria.
D. Appelt , K. Wicker , R. Heintzmann ;
1
Randall Division of Cell and Molecular Biophysics, King's College
2
London, London, United Kingdom, Institute of Physical Chemistry,
3
Friedrich-Schiller-Universität Jena, Jena, Germany, Intitute of Photonic
Technology, Jena, Germany.
Optical coherence tomography (OCT) has been applied in biomedical
imaging since nearly twenty years. Main applications of OCT are found
in ophthalmology, dermatology, cardiovascular imaging. In order to
extend the imaging capability of OCT towards function, e.g. Doppler
OCT (DOCT), spectroscopic OCT (SOCT), and optophysiology have
been invented. The additional information could not only be used as
additional contrasting mechanism, but should also lead to a better
understanding of underlying physiological processes. Clinical
applications are disease state evaluation and treatment monitoring.We
present recent advances and challenges in SOCT, optophysiology, and
in a multimodal approach combining OCT with photoacoustic imaging.
1. Spectroscopic OCT: In SOCT spectra originating from different
depths are compared. Main aim is the extraction of the depth dependent
absorption profiles required for further functional analysis. In a simplified
non-scattering model, the absorption coefficient between two reflective
surfaces, separated by distance d, can be calculated from the spectral
envelopes S1, S2, obtained from the OCT signals of these surfaces .
The spectral change with depth is not only caused by absorption, but
also by spectral backscattering. Some work was done to separate
scattering and absorption. The proposed separation algorithm works in
phantoms with well defined scattering and absorption properties.
However, in biological tissue the extraction of absorption profiles
The conventional epi-fluorescent wide-field microscope features a
uniform illumination of an extended sample region. A problem arises with
this setup when specimens are used whose thickness in the direction of
the optical axis (i.e. the z-direction) is greater than the objective’s depth
of field. In this case, not only in-focus fluorophores but also those lying
above or below the plane of focus are excited. Since the objective is not
able to distinguish from which part of the sample the emission light
originates, light from out-of-focus fluorophores is also detected. The
result is poor quality in the final image, as out-of-focus structures appear
blurred; furthermore, their emission light contributes to the background
and leads to a reduction in image contrast. Removing out-of-focus light
yields an optically sectioned image: a thin slice of a thick sample that
only contains in-focus information. Taking a stack of sectioned images
allows for a three-dimensional reconstruction of the specimen.
Conventional structured illumination microscopy (cSIM) is a method to
obtain optical sectioned data, similar to that obtained from the widely
used confocal microscope. However, the requirement of taking three
images imposes a limit on the acquisition rate of cSIM. We propose the
technique of polarization-coded structured illumination (picoSIM), which
combines high temporal and high spatial resolution. Our technique
encodes the three individual light patterns needed for cSIM in a
57
polarization-coded light distribution; this allows the acquisition of the
three images required for a computational reconstruction of a sectioned
image in one single exposure, allowing imaging with in principle arbitrary
temporal resolution (Fig. 1).
Session 19: Funktionelle und
strukturelle Hochfeld MR - aktuelle
Entwicklungen
19.1
CE Lecture: Hochfeld und die Grundlagen des MRI - Struktur &
Funktion
R. Stollberger;
Institut for Medical Engineering, TU-Graz, Graz, Austria.
Figure 1: Possible realization of picoSIM. The lower light path depicts the
illumination side of the system (lenses L1-L5 and objective are in
telecentric arrangement): via lens L1 and a polarizer light is linearly
polarized and illuminates an incoherence aperture. This aperture limits
the angle of incidence for the illumination of a grating, which is placed in
an image plane conjugate to the aperture. This limitation is exemplified
for two angles alpha (allowed) and beta (blocked). If the incoherence
aperture size is chosen correctly, the individual diffraction orders can be
separated in another conjugate plane. Here the central zero- order is
blocked by a beam stop (red), whereas the -1st (+1st) order is left (right)
circularly polarized by means of lambda/4-plates (green). Lenses L4 and
L5 relay these circularly polarized orders into the back focal plane of the
objective. The upper light path depicts the detection side of the system:
a dichromatic beam splitter separates the emitted light from the
illumination light. A 3-way beam splitter divides the light into three
identical components, which are then filtered by polarization analyzers
oriented at three different angles (i.e. 0°, 60°, 120°), before they are
imaged on different regions of the same CCD camera. These three
images contain all the information needed to calculate an optically
sectioned image similar to those of cSIM.
Im Rahmen dieser Präsentation werden die Grundlagen des MRI in
Bezug auf Hochfeldanwendung für strukturelle und funktionelle Untersuchungen dargestellt und diskutiert. Es wird insbesondere auf die
Grundlagen für das Verbesserte Signal-zu-Rausch Verhältnis eingegangen. Weiters werden die Effekte durch die elektromagnetische
Wechselwirkung bei hohen Feldstärken diskutiert. Diese können einerseits als Artefakte in Erscheinung treten, anderseits aber auch die
Grundlage von neuen Kontrasten und somit zusätzlichen Informationen
sein. Im Bereich der Relaxation ist generell mit einer Abnahme der T2
Relaxationszeitkonstante zu rechnen, wohingegen die T1 Zeit verlängert
in Erscheinung tritt. Die führt typischerweise zu geänderte Parametern
bei den Scanprotokollen um die gewünschten Kontraste zu erreichen.
Auch die Kontrastmittel haben im Hochfeld unterschiedlichen Relaxivitäten. Die Änderung der Relaxivität hängt vom Typ des Kontrastmittels und der unmittelbaren Umgebung ab.
Struktur der Präsentation:
•
•
•
•
Signalerzeugung
o Gleichgewichtsmagnetisierung
o Signalinduktion
o Reziprozitätstheorem
Feldinhomogenitäten in Abhängigkeit von B0 und
untersuchten Objekten
o Hochfrequenzfeld
o Gleichfeld
Relaxation
o T2*/T2
o T1
Kontrastmittel bei verschiedenen Feldstärken
o GD-XXXX
o SPIO
19.2
State-of-the-Art Lecture: Funktionelle und strukturelle Hochfeld
MRT des Gehirnes
C. Windischberger;
Medical University of Vienna, Vienna, Austria.
Hochfeld-MR Anwendungen profitieren in erster Linie von den
gesteigerten Signalamplituden bei hohen Feldern. Dieser Anstieg im
Signal-zu-Rausch Verhältnis kann vielfältig genützt werden.
Einerseits kann dadurch die räumliche Auflösung erhöht werden,
andererseits ist es aber auch möglich den SNR-Gewinn zur Verkürzung
der Messzeiten zu verwenden. Von besonderer Bedeutung ist dabei die
Möglichkeit zur Verwendung paralleler Bildgebung (SENSE, GRAPPA),
bei der die Bilddaten mit Hilfe von Mehrkanal-Empfangsspulen innerhalb
kürzerer Zeit aufgenommen werden können. Der damit verbundene
Verlust an Bild-SNR kann durch SNR-Gewinn bei höheren Feldern
ausgeglichen werden. Für funktionelle Anwendungen ist dabei von
besonderer Bedeutung, dass sowohl die Spezifität wie auch die
Sensitivität
für
durch
neuronale
Aktivität
hervorgerufene
Signaländerungen ansteigt. Nicht zuletzt profitieren auch strukturelle und
diffusionsgewichtete Bilder von den bei hohen Feldern erhöhten
Signalamplituden.
Allerdings sind diese eindeutigen Vorteile bei hohen Magnetfeldern mit
Nachteile bzw. Herausforderungen verbunden. Dazu zählt vor allem die
Verkürzung der transversalen Relaxationszeit T2* und die damit einher
gehende Ver-kürzung des nutzbaren Datenakquisitionsfensters. Auch
hier bietet die parallele Bildgebung wiederum eine Möglichkeit zur
Beschleunigung der Datenaufnahme, insbesondere bei hohen
Auflösungen. Eine weitere Herausforderung stellt der Anstieg der für die
Spinanregung benötigten Radiowellenenergie dar. Auch hier bieten sich
Möglichkeiten diesen Effekt zu reduzieren, im einfachsten Fall geschieht
dies durch eine Verlängerung der Pulsdauer.
Zusammengefasst kann festgestellt werden, dass MR bei hohen und
ultra-hohen Feldern ein riesiges Potential für zukünftige Anwendungen
darstellt, allerdings nur dann, wenn Niederfeldmethoden nicht nur
einfach auf die höhere Feldstärke kopiert werden, sondern
anwendungsspezifische Änderungen in den Akquisitionsparametern
58
zusammen mit Mehrkanalspulentechnik und paralleler Bildgebung
kombiniert werden. Im Trend zu immer höheren Magnetfeldstärken liegt
die Zukunft der MR, da die potentiellen Vorteile die möglichen Nachteile
bei weitem überwiegen.
19.3
Ganzkörper-Hochfeld-Magnetresonanz bei 7 Tesla
1,2
1,2
1,2
1,2
1
M. E. Ladd , S. Orzada , L. Umutlu , S. Johst , O. Kraff , K.
1,2
1
1,2
1,2
Nassenstein , S. Maderwald , A. K. Bitz , S. Ladd , T. C.
1,2
Lauenstein ;
1
2
Erwin L. Hahn Institute for MRI, Essen, Germany, Institut für
Diagnostische und Interventionelle Radiologie und Neuroradiologie,
Essen, Germany.
Einleitung: Die Magnetresonanztomographie (MRT) in anatomischen
Regionen mit großem Querschnitt stellt eine Herausforderung bei 7
Tesla dar, da die Wellenlänge der erforderlichen Hochfrequenzfelder so
kurz ist, dass destruktive Interferenzen entstehen können. Bis vor kurzen
wurde die MR-Bildgebung bei 7T vor allem im Kopf oder in den
Extremität durchgeführt. Erste Ergebnisse für kardiale und abdominelle
Bildgebung sind aber nun verfügbar [1-4]. Die Zielsetzung dieser Arbeit
war die Erkundung des diagnostischen Potentials von 7T im
Körperstamm durch Verwendung eines Mehrkanalsendesystems in
Zusammenhang mit statischem Hochfrequenz-(HF-)Shimming.
Methoden: Die Untersuchungen wurden in 30 Probanden mit einem 7T
Ganzkörper-MRT-System (Magnetom 7T, Siemens Healthcare,
Erlangen) durchgeführt. Eine selbstgebaute HF-Sende-/Empfangsspule
mit Stripline-Elementen (Abb. 1a) und spezielle HF-ShimmingAlgorithmen [5] wurden eingesetzt. Die MRT-Protokolle umfassten
Kombinationen folgender Sequenzen: Cine-FLASH, T1-gewichtete
(T1w) 3D-FLASH, T1w fettgesättigte 2D-FLASH, 2D T1w in- und
opposed-phase FLASH, 2D-TOF, quasi T2-gewichtete (T2w) 2DTrueFISP und T2w TSE.
Ergebnisse: Kleine anatomische Strukturen im Abdomen und
insbesondere die hepatischen und renalen Gefäße konnten mit Hilfe der
T1w-Bildgebung vorzüglich dargestellt werden (Abb. 1b). Die arteriellen
Gefäße waren hauptsächlich hell und die venösen Gefäße dunkel
unabhängig der Schichtorientierung. Mit TrueFISP konnte im Abdomen
und im Becken unerwartet gute Bildqualität erreicht werden (Abb. 1c);
nichtsdestotrotz stellen wegen SAR-Limitationen sowohl TrueFISP als
auch TSE eine große Herausforderung bei 7T dar. Cine-FLASH lieferte
gute Bildqualität und Homogenität über fast das gesamte Herzvolumen
mit sehr gutem Kontrast zwischen Myokard und Blut (Abb. 1d).
Schlussfolgerungen: Diese Ergebnisse sind für die Zukunft der MRTBildgebung bei 7T im Thorax, Abdomen und Becken vielversprechend.
Das inhärent helles Signal des arteriellen Systems in der T1wBildgebung zeigt eine hohes Potential für die MR-Angiographie ohne
Kontrastmittel. Nachfolgende Studien in Patienten werden diese
Sequenzen weiter evaluieren und das Erscheinungsbild verschiedener
Pathologien bei 7T untersuchen.
Literatur:
[1] Vaughan, J.T., et al., "Whole-body imaging at 7T: preliminary results,"
Magn Reson Med, vol. 61, pp. 244-248, 2009.
[2] Umutlu, L., et al, “Dynamic contrast-enhanced renal MRI at 7 Tesla:
preliminary results,” Invest Radiol, [Epub ahead of print], 2011.
[3] Snyder, C.J., et al., "Initial results of cardiac imaging at 7 Tesla,"
Magn Reson Med, vol. 61, pp. 517-524, 2009.
[4] Maderwald, S., et al., "7T human in vivo cardiac imaging with an 8channel transmit/receive array," in Proc. of the ISMRM, p. 821, 2009.
[5] Orzada, S., et al., “RF excitation using time interleaved acquisition of
modes (TIAMO) to address B1 inhomogeneity in high-field MRI,” Magn
Reson Med, vol.64, pp. 327-333, 2010.
Abb. 1. (a) 16-Kanal-Sende-/Empfangsspule für die
Ganzkörperbildgebung bei 7T. (b) T1w fettgesättigte 2D-FLASH mit
Zyste der linken Niere als Zufallsbefund. (c) TrueFISP-Aufnahme der
Leber und Nieren. (d) Cine-FLASH im Herzen.
19.4
Strukturelle und funktionelle MR Venographie bei 7 Tesla
1,2
M. Barth ;
1
Radboud University Nijmegen, Donders Institute for Brain, Cognition
2
and Behaviour, Nijmegen, Netherlands, University Duisburg-Essen, E.L.
Hahn Institute for Magnetic Resonance Imaging, Essen, Germany.
Die höhere Signalausbeute bei 7 Tesla kann dazu verwendet werden um
die räumliche Auflösung in der MR Bildgebung signifikant zu verbessern.
Weiters ist der sogenannte Blutoxygenierungseffekt oder auch BOLD
Effekt, der in Abhängigkeit von der Blutsauerstoffsättigung in den
Blutgefäßen das MR Signal beeinflusst, stärker. An Hand von
Gradienten-Echo Daten mit langer Echozeit können so z.B. kleinste
venöse Gefäße in der kortikalen grauen Substanz (intrakortikale Venen)
sowie Substrukturen des Cortex, die kortikalen Schichten (Laminae)
dargestellt werden. Durch die Verwendung von speziellen Spulen kann
eine höhere räumliche Auflösung auch für die Aufnahme von
funktionellen Daten erreicht werden. Durch Verwendung einer neuen
Analysestrategie konnten wir dabei erstmalig die schicht-spezifische
funktionelle Aktivierung im primären visuellen Cortex in Abhängigkeit von
den Messparametern (Echozeit) darstellen. Neben der erwarteten hohen
Aktivierung im Bereich der extrakortikalen Venen, zeigen die Ergebnisse
auch eine höhere Aktivierung in den mittleren kortikalen Schichten
(entspricht ungefähr der anatomischen Schicht IV, in der die afferenten
Nervenbahnen terminieren) im Vergleich zu umgebenden Schichten.
Dies ist konsistent mit Forschungsergebnissen im Tierversuch, die eine
bessere Korrelation des BOLD Effektes mit den elektrophysiologischen
Daten gezeigt haben, die neuronalem Input zugeschrieben werden. Mit
dieser Studie können auch Diskrepanzen zwischen Ergebnissen
laminarer Experimente durch die unterschiedliche Wahl der Echozeit gut
erklärt werden. Die zeitliche Rauschsignatur über die kortikalen
Schichten zeigt außerdem eine gute Korrelation mit dem laminaren
Blutvolumen.
59
Session 20: Hochfeld MR II
20.1
Auswertung klinischer fMRI-Messungen mittels Korrelation mit
regionspezifischen Antwortfunktionen
1
1
1
1
2
U. Klose , M. Batra , B. Bender , M. Erb , B. Brendel ;
1
Universitätsklinik Tübingen, Abteilung für Neuroradiologie, Tübingen,
2
Germany, Universitätsklinik Tübingen, Abteilung für allgemeine
Neurologie, Tübingen, Germany.
Einleitung: Die funktionelle MR-Bildgebung (fMRI) wird regelmäßig bei
preoperativen MR-Untersuchungen des Gehirns eingesetzt, um die Lage
von funktionellen Arealen in Bezug auf das geplante Operationsgebiet
darstellen zu können. Dabei werden oft motorische Stimuli oder
Aufgaben zur Lokalisation sprachrelevanter Areale verwendet. Die
Auswertung erfolgt in der Regel mit einem Vergleich des Signalverlaufs
in allen aufgenommenen Bildpunkten mit einer Rechteckfunktion. Dieses
Vorgehen kann aber nicht individuelle Variationen des zeitlichen
Aktivierungsverlaufes berücksichtigen, z.B. durch schwankende
Aufmerksamkeit bzw. Konzentration der Patienten. In dieser Studie
wurde untersucht, ob diese Einflüsse in die Auswertung einbezogen
werden können, wenn der Signalverlauf in ausgewählten
Aktivierungszentren anstelle der Rechteckfunktion als Referenzfunktion
verwendet wird.
Methoden: Bei zehn Patienten wurden fMRI-Messungen durchgeführt.
Es wurde ein Design mit alternierender motorischer Bewegung
(Faustschluss) und Sprachaufgabe (Bildung von Kettenworten)
eingesetzt, wobei die jeweilige Anweisung über die Projektion auf eine
Leinwand gegeben wurde (Blocklänge 24 s). Es wurde eine EPISequenz mit 104 Meßwiederholungen eingesetzt (TR 3 s, TE 40ms,
2
Bildmatrix 96*96, FOV 240*240 mm , 36 Schichten). Die Auswertung
erfolgte mit fsl (FMRIB analysis group, University of Oxford) und
umfasste eine Bewegungskorrektur und zwei t-Test-Analysen: zum
Einen mit einer Rechteck-Funktion, die mit der hämodynamischen
Antwortfunktion gefaltet wurde, und zum Anderen mit einer
Referenzfunktion, die sich aus dem Signalverlauf in einer ausgewählten
Region ergab. Diese Region wurde als eines der Aktivierungscluster in
den t-Parameterbildern ausgewählt, das sich bei der RechteckfunktionAnalyse ergab.
Ergebnisse: In Abb. 1 ist das Ergebnis der beiden durchgeführten
Auswertungen bei einem ausgewählten Patienten dargestellt (t-maps).
Bei dem Vergleich des Signalverlaufs mit der Rechteck-Funktion
(gewählter Grenzwert 7) werden eine Reihe von unterschiedlichen
Aktivierungsclustern gefunden. Für die zweite Auswertung wurde der
Zeitverlauf im Aktivierungscluster in der perisylvischen Region als
Referenz ausgewählt. Das Ergebnis der t-Wert-Analyse bei Verwendung
dieser Referenzfunktion zeigt die Abb. 1 b und d. Als Grenzwert wurde
hier mit t = 16 ein viel höherer Grenzwert verwendet. In dieser
Darstellung werden nur noch zwei Aktivierungscluster gefunden: eines in
der perisylvischen Region, das aber viel größer als in der ersten
Auswertung ist, und eines im inferioren/mittleren frontalen Gyrus, der
von der Ausdehnung mit der in der ersten Auswertung vergleichbar ist.
Der Signalverlauf in den beiden letztgenannten Clustern (Abb.2) zeigt,
dass in beiden Clustern eine erhebliche Abweichung von der RechteckFunktion vorliegt, der Verlauf in beiden Clustern aber ein hohe
Synchronizität aufweist.
In den Datensätzen der weiteren untersuchen Patienten war es ebenfalls
möglich, ein Aktivierungscluster in der Broca-Region
a)
c)
b)
d)
Abb. 1: Auswertung einer klinischen fMRIMessung durch Vergleich mit einer RechteckFunktion (a,c) und einer regionspezifischen
Antwortfunktion (b,d). In der unteren Zeile sind
sechs ausgewählte Schichten vergrößert
dargestellt.
zu identifizieren und durch eine zweite t-Test-Analyse auf der Grundlage
der regionspezifischen Antwortfunktion weitere Regionen mit weitgehend
ähnlichem Signalverlauf zu identifizieren.
Diskussion: Die durchgeführten Untersuchungen zeigen, dass die
Verwendung
einer
regionspezifischen
Antwortfunktion
eine
Identifizierung von denjenigen Arealen ermöglicht, die einen sehr
ähnlichen Zeitverlauf haben und von denen daher angenommen werden
kann, dass sie bei der Verarbeitung des verwendeten Stimulus eine
parallele Funktion haben. Bei dem untersuchten Beispiel kann davon
ausgegangen werden, dass die Aktivierungscluster der zweiten
Auswertung beide für die Sprachproduktion relevat sind und deshalb bei
der Operationsplanung als zu schonende Gehirnareale berücksichtigt
werden sollten.
20.2
Quantitative Suszeptibilitätskartierung
J. R. Reichenbach;
University Hospital Jena / IDIR 1 / Medical Physics Group, Jena,
Germany.
Die Magnetresonanztomographie hat sich in den vergangenen
Jahrzehnten zu einem der bedeutendsten Verfahren der medizinischen
Bildgebung entwickelt. Dies liegt nicht zuletzt an der einzigartigen
Möglichkeit, eine Vielzahl verschiedenartiger und komplementärer
Gewebekontraste zu erzeugen. Dazu gehören beispielweise das
gezielte Ausnutzen unterschiedlicher Relaxations-, Diffusions- oder
Perfusionseigenschaften zwischen verschiedenen Geweben, die auf den
Bildern sichtbar gemacht werden können. Einer der letzten, bisher nicht
genutzten Kontraste ist die direkte Darstellung der magnetischen
Suszeptibilität. Diese Größe bildet zwar die Grundlage der funktionellen
60
Bildgebung (fMRT), in der anatomischen Bildgebung war sie aber lange
Zeit nur als „Suszeptibilitätsartefakt“ bekannt.
Tatsächlich ist die magnetische Suszeptibilität eine grundlegende
intrinsische physikalische Gewebeeigenschaft. Bei der quantitativen
Suszeptibilitätskartierung (Quantitative Susceptibility Mapping; QSM)
handelt es sich um ein neuartiges Verfahren, das die Möglichkeiten der
Magnetresonanztomographie (MRT) in vieler Hinsicht erweitert. Das
Verfahren basiert auf dem physikalischen Phänomen, dass Objekte, die
einem magnetischen Feld ausgesetzt sind, magnetisiert werden und das
angelegte Magnetfeld verzerren.
Mathematisch gehört die Suszeptibilitätskartierung zu der Klasse der
sogenannten inversen Probleme, deren Lösbarkeit in der Regel
schwierig ist und absolut artefaktfreie Eingangsdaten erfordert. Bei
inversen Problemen gehen in der Regel schon geringe Fehler in den
Eingangsdaten mit einer erheblichen Verschlechterung der erhaltenen
Lösung einher. Unsere Arbeiten beschäftigen sich daher mit der
Entwicklung
neuer
Strategien
zur
Erzeugung
hochwertiger
Eingangsdaten und zur Lösung des inversen Problems. Darüber hinaus
wird das klinische Potential dieser neuen Methode untersucht.
Veränderungen ihre Verbindungsbahnen aufweisen. Die räumliche
Verteilung dieser pathologischen Änderungen passt sehr gut in das
aktuelle Modell der Emotionsverarbeitung und deutet auf eine
beeinträchtigte Regulation der primären emotionsverarbeitenden Areale
durch den orbito-frontalen Kortex hin. Die von uns gefundenen
Unterschiede in der FA bestätigen zuvor publizierte Ergebnisse (Phan,
2009). Zusätzlich konnten wir zeigen, dass diese pathologischen
Veränderungen bilateral auftreten.
20.3
Veränderungen im Fasciculus Uncinatus in Sozialphobie - eine DTI
Studie
1
1
1
2
1
2
J. Tröstl , R. Sladky , A. Hummer , C. Kraus , E. Moser , S. Kasper , R.
2
1
Lanzenberger , C. Windischberger ;
1
MR Centre of Excellence, Medical University of Vienna, Wien, Austria,
2
Department of Psychiatry and Psychotherapy, Medical University of
Vienna, Wien, Austria.
Einleitung: Diffusion Tensor Imaging (DTI) ist eine Methodik zur
Erfassung der Anisotropie von Wasserdiffusion in Gewebe (Le Bihan,
2001; Mori, 2008;). Dabei wird aus den diffusionsgewichteten MRBildern für jedes Voxel ein Diffusionstensor berechnet, der die
Hauptdiffusionsachsen in diesem Volumen widerspiegelt. Da im Gewebe
die Diffusion durch Zellwände, Membranen und Nervenfasern
beschränkt ist, ist es durch DTI möglich die anatomische Struktur in-vivo
abzuschätzen. Dazu wird insbesondere die Fraktionelle Anisotropie (FA)
berechnet, die die Eigenwerte des Diffusionstensors in Relation bringt
und somit die Anisotropie der Diffusion wiedergibt (0 bis 1 entsprechen
isotrop bis anisotrop). In dieser Studie wurde DTI erfolgreich angewandt
um Unterschiede in der weißen Substanz (speziell im Fasciculus
Uncinatus) von Sozialphobie (SAD) Patienten zu untersuchen. Weiters
wurde Traktographie, eine Methode um Faserstrukturen im Gehirn zu
visualisieren, angewandt um den Fasciculus Uncinatus (UF) zu
identifizieren, eine studienspezifische Maske zu erstellen und die
Ergebnisse mit der FA-Analyse zu vergleichen.
Methoden: Diffusionsgewichtete MR-Bilder (15 SAD Patienten, 15
Kontrollen) wurden auf einem 3T TIM Trio Scanner (Siemens,
Deutschland) aufgenommen. Gemessen wurde in 30 Raumrichtungen
mit einem maximalen b-Wert von 800s/mm² und einer isotropen
Auflösung
von
1.6mm³.
FA
Bildsätze
wurden
in
FSL
(www.fmrib.ox.ac.uk/fsl/ - University of Oxford, UK) berechnet. Hierfür
wurde nach Anwenden der Wirbelstromkorrektur der Diffusionstensor in
jedem Voxel berechnet.
Zusätzlich wurde Traktographie des UF durchgeführt. Zu diesem Zweck
wurden zwei quaderförmige Seed Masken (Seitenlänge 5 Voxel)
bilateral im posterioren Teil des UF nahe der Amygala hineingelegt
(analog zum Traktographie Atlas der Johns Hopkins Universität, USA).
Die Ergebnisse wurden normalisiert, gemittelt und gewichtet, um eine
studienspezifische Maske des UF zu erhalten. Weitere Schritte wurden
mit SPM8 (Wellcome Trust Centre for Neuroimaging, UCL, UK)
durchgeführt.
T1Bilder wurden zuerst auf die EPI Bilder ko-registriert und danach
mittels der SPM8 Segmentierungs-Funktion normalisiert. Die daraus
resultierenden Transformationsmatrizen wurden auf die FA Datensätze
angewandt, die dann mit einem Gauß’schen Faltungskern mit einer
Halbwertsbreite von 6 mm räumlich geglättet wurden. Ein zwei-Gruppen
T-Test begrenzt auf den UF wurde dann mit den normalisierten und
geglätteten FA Datensätze durchgeführt. Ein weiterer zwei-Gruppen TTest wurde mit den normalisierten und geglätteten (Halbwertsbreite 3
mm) Traktographie Datensätzen durchgeführt.
Resultate: Im Vergleich zu den gesunden Kontrollprobanden zeigten
SAD Patienten signifikant niedrigere FA-Werte im anterioren UF (p<0.05
unkorr. - MNI Koordinaten in mm: (41,33,-9), t=3.67 and (-40,39,-19)
t=2.55). Zusätzlich fanden wir erhöhte FA in SAD Patienten relativ zu
gesunden Kotrollen in posterioren Teilen des UF (p<0.05 unkorr. - MNI
Koordinaten in mm: (30,7,-12), t=3.29 and (-29,7,-10), t=2.90). Die
Analyse der Traktographie Datensätze konnte diese Ergebnisse
bestätigen. Die Ergebnisse der FA-Analyse sind in der Abbildung zu
sehen.
Schlussfolgerungen: DTI ist eine ausgezeichnete Methode um
Veränderungen in der weißen Substanz in-vivo zu untersuchen. In
dieser Studie wurde gezeigt, dass Sozialphobie-Patienten spezifische
20.4
Der Einfluss von Slice-Timing-Correction auf die Qualität von fMRIDaten
R. Sladky, J. Tröst, E. Moser, C. Windischberger;
MR Centre of Excellence, Medical University of Vienna, Vienna, Austria.
Bei funktioneller Magnetresonanztomographie wird in der Regel eine
Serie von dreidimensionalen Bildern analysiert. Die Messung erfolgt
normalerweise durch die wiederholte sequentielle Aufnahme von
einzelnen Schichten. Die Akquisition eines 3D-Volumens dauert, je nach
Mess-Parameter und -Sequenz, typischerweise zwischen 1 und 4
Sekunden. Dadurch ergeben sich allerdings zeitliche Verschiebungen
zwischen den einzelnen aufgenommenen Schichten, die sich negativ auf
die Ergebnisse der Analyse auswirken können (Slice-Timing-Effekt). Um
diesen zeitlichen Fehler kompensieren zu können, wurde das SliceTiming-Correction-Verfahren (STC) entwickelt und in allen großen fMRISoftwarepakete zur Daten-Vorverarbeitung eingeführt (Henson 1999,
Calhoun 2000). Dabei werden die einzelnen Schichten durch zeitliche
Interpolation an einer Referenzschicht ausgerichtet. Obwohl diese
Methodik weit verbreitet ist, gab es bisher keine valide und erschöpfende
Analyse über ihre Wirksamkeit und mögliche Probleme.
Da fMRI-Daten von menschlichen Probanden physiologische
Variationen in der Hämodynamik aufweisen und nie frei von
Bewegungsartfakten sind, wurden simulierte Daten erstellt, um den
Slice-Timing-Effekt unverfälscht zu analysieren. Eine Reihe von 4DMatrizen wurde erstellt, um eine Serie von MRI-Scans mit 20 Schichten,
einer Auflösung von 32x32 px2 und einer Scandauer von 300 Sekunden
zu simulieren. Es wurde eine Voxelgröße von 1.5x1.5x3 mm3 gewählt,
welche typisch für hoch-aufgelöstes fMRI ist. Die Zeitverläufe von jedem
Datensatz basieren auf verschieden variierten Block- und EventRelated-fMRI-Designs, die mit der kanonischen hämodynamischen
Response-Funktion von SPM8 gefaltet worden sind. Diese Rohdaten
wurden auf eine zeitliche Auflösung von TR=1, 2, 3 und 4 Sekunden
transformiert, wobei jene zeitliche Verschiebung hinzugefügt wurde, die
bei der schichtweisen Aufnahme von MR-Bildern typisch ist. Außerdem
wurden sowohl sequentielle (1, 2, 3, ... , 20), als auch abwechselnde (2,
4, ... 20, 1, 3, ..., 19) Aufnahmereihenfolgen der Schichten simuliert. Um
die Stabilität von STC zu untersuchen, wurden unterschiedliche Grade
von weißem Rauschen (CNR=1.7, 2.5, 5 und unendlich) hinzugefügt.
Nach räumlicher Glättung (6 mm FWHM, isotropischer Gauß-Kern)
wurde eine GLM-Analyse für alle Datensätze durchgeführt. Da die
zehnte Schicht als Referenzschicht genommen worden ist, erzielten wir
einen effektiven zeitliche Unterschied von ungefähr 0.5, 1, 1.5 und 2
Sekunden zwischen der am besten und schlechtesten ausgerichteten
Schicht.
Das Diagramm zeigt einen Vergleich der geschätzten Modell-Parameter
für unkorrigierte (rot) und korrigierte (grün) Daten für die beschriebenen
Versuchsdesigns und Messparameter. Die Werte wurden relativ zum
höchsten Parameter der unkorrigierten und störungsfreien Daten
normalisiert. Dicke Linien stellen den Durchschnitt dar, während die
Flächen die Verteilung der Parameter zeigen. Die Verwendung der
geschätzten Modellparameter kann als geeignetes Gütekriterium
betrachtet werden, da diese schließlich auch in der Gruppenanalyse
61
verwendet werden. Wir konnten zeigen, dass STC für alle
Versuchsbedingungen einen positiven Einfluss auf die Modellparameter
aufweist. Außerdem sind (selbst bei stärker verrauschten Daten) keine
feststellbaren Artefakte durch STC entstanden.
Wir konnten mit diesen umfangreichen Simulationen Ergebnisse aus
vorangegangenen in vivo Studien und Analysen von Simulationen von
limitierten Datenbeständen untermauern (Sladky et al., HBM 2010). Die
Resultate sprechen für einen positiven Effekt von STC auf die
Sensitivität und Spezifität der statistischen Aktivitätsbilder.
20.5
Dichtegewichtete Fast Spin Echo MR-Bildgebung
1
2
1
1
1
Ergebnisse: Die kartesisch gefilterten sowie die dichtegewichteten
Aufnahmen führten zu identischen PSF mit sehr kleinen Nebenmaxima.
Dadurch zeigten die Bilder im Gegensatz zur ungefilterten kartesischen
Aufnahme keine Gibbs-Artefakte. Der SNR-Gewinn bei GriddingRekonstruktion im Objekt beträgt in Übereinstimmung mit theoretischen
Berechnungen mehr als 50%. Allerdings ist bei dieser Rekonstruktion
das Field of View (FOV) durch Einfaltungen aufgrund der
unterabgetasteten k-Raum-Randbereiche eingeschränkt. Die PLANEDRekonstruktion liefert einfaltungsfreie Bilder im vollen FOV. Allerdings ist
der SNR-Gewinn orientierungs- und ortsabhängig etwas durch den gFaktor reduziert, liegt jedoch stets signifikant über dem SNR bei
kartesischer Filterung (Bilder einer Einzelspule in Abbildung 2).
M. Zeller , M. Gutberlet , D. Stäb , D. Hahn , H. Köstler ;
1
Institut für Röntgendiagnostik, Universität Würzburg, Würzburg,
2
Germany, Institut für Diagnostische und Interventionelle Radiologie,
Medizinische Hochschule Hannover, Hannover, Germany.
Einleitung: Ein generelles Problem der kartesischen k-Raum-Abtastung
ist, dass aufgrund von Nebenmaxima in der Point Spread Function
(PSF) Gibbs-Artefakte im Bild auftreten. Zu deren Reduktion werden oft
retrospektiv k-Raum-Filter angewendet, die jedoch zu Verlusten im
Signal-zu-Rausch-Verhältnis (SNR) und der räumlichen Auflösung
führen. Bei der dichtegewichteten Bildgebung wird durch Abtasten des kRaums mit nicht-kartesischen Trajektorien ein solcher k-Raum-Filter
bereits während der Aufnahme angewendet. Dichtegewichtung wurde
für SE-, GRE- [1] sowie SR-Sequenzen [2] implementiert, aufgrund des
Auftretens der T2-Relaxation jedoch nicht für die Fast Spin EchoSequenz (FSE). Ziel dieser Studie war es, Dichtegewichtung auf dieses
Zugpferd der klinischen Bildgebung anzuwenden, was zu verbesserter
Bildqualität und einem höheren SNR führt.
Material und Methoden: Zur Aufnahme kartesischer sowie
dichtegewichteter Bilder von Phantomen und gesunden Probanden
wurde ein 3T-MR-Scanner (Siemens TRIO) mit 12-Kanal-Kopfspule
verwendet. Dazu kam eine FSE-Sequenz mit folgenden Parametern für
beide Verfahren zum Einsatz: TR=6000 ms, TEeff=90 ms, 324
Phasencodierschritte, Auflösung 0,8x0,8x5 mm³, Turbofaktor 9 sowie ein
reversed centric-Aufnahmeschema, um lange Echozeiten zu erreichen.
Bei FSE mit reversed centric-Sampling ergibt sich aus der FourierTransformation des durch T2-Relaxation bedingten exponentiellen
Signalabfalls eine PSF mit stark ausgeprägten Nebenmaxima. Daher
wurde der Signalverlauf bei der kartesischen Aufnahme mit einem Filter
multipliziert, um eine günstigere Gewichtung herzustellen und die
Nebenmaxima zu unterdrücken. Bei der Dichtegewichtung wurde diese
Gewichtung, angepasst auf Relaxationszeit von weißer Substanz bei 3 T
(T2=75 ms), durch Variation der Akquisitions-Abstände im k-Raum (kRaum-Dichte) erreicht. Dies ist in Abbildung 1 dargestellt. Bei der
kartesischen Aufnahme (a.) ist für eine günstige Gewichtung
(Hanningfunktion, grau) ein starker Filter (rot) erforderlich. Bei der
Dichtegewichtung (b.) fällt die Filterung sehr viel schwächer aus, da die
Gewichtung im Wesentlichen durch Variation der k-Raum-Dichte (blau)
hergestellt wird. Im äußeren k-Raum-Bereich wurde die minimale kRaum-Dichte auf 0,5 limitiert, um die g-Faktoren bei Rekonstruktion mit
paralleler Bildgebung gering zu halten. Die Rekonstruktion der
nichtlinearen k-Raum-Daten erfolgte durch Anwendung eines Griddingbzw. eines PLANED-GRAPPA-Algorithmus [1]. Die PSF wurde durch
Ableitung der Edge Spread Function an einer scharfen Phantom-Kante
ermittelt. Zur SNR-Bestimmung wurde die Pseudo-Replika-Methode [3]
verwendet.
62
Zusammenfassung: Die FSE-Bildgebung unter Einsatz von
Dichtegewichtung vereint die Vorteile von ungefilterter und gefilterter
kartesischer FSE-Bildgebung: Optimales SNR und vollständige GibbsArtefakt-Unterdrückung. Um mit kartesisch gefilterter Aufnahme einen
vergleichbaren SNR-Gewinn zu erzielen, müsste die Aufnahmezeit mehr
als verdoppelt werden.
Literatur
[1] Geier O, 2007, MAGMA 20: 19-25
[2] Gutberlet M, 2010, MRI 28: 341-350
[3] Robson P, 2008, MRM 60: 895-907
20.6
Quantitative MR-Perfusionsbildgebung am Herzen bei 1,5T und 3,0T
1
1
2
1
I. Davulcu , S. Weber , K. Kreitner , L. M. Schreiber ;
1
Klinik für Radiologie, Bereich Medizinische Physik, Universitätsmedizin
2
der Johannes Gutenberg-Universität Mainz, Mainz, Germany, Klinik für
Radiologie, Universitätsmedizin der Johannes Gutenberg-Universität
Mainz, Mainz, Germany.
Einleitung: Eine reduzierte myokardiale Durchblutung ist der erste
auftretende Effekt der koronaren Herzkrankheit (KHK). Daher erlangt die
Durchblutungsmessung des Herzens mittels der strahlungsfreien
Magnetresonaztomographie einen besonders hohen Stellenwert. Als
Pulssequenzen
für
die
T1-gewichtete
dynamische,
kontrastmittelgestützte Perfusionsmessung am Herzen kommen dabei
sowohl schnelle gespoilte Gradientenechosequenzen wie SRTurboFLASH oder balancierte Steady State Sequenzen mit
Präperationspuls für die T1-Gewichtung wie SR-TrueFISP zum Einsatz.
Ziel dieser Arbeit war es, die beiden genannten Pulssequenzen unter für
jede Feldstärke optimalen Einstellungen bei 1,5T und 3,0T für die
quantitative myokardiale Perfusionsmessung zu untersuchen und zu
vergleichen.
Material und Methoden: Es wurden insgesamt 20 gesunde Probanden
im Alter zwischen 20 und 40 Jahren sowohl bei 1,5T (Siemens Avanto)
als auch bei 3,0T (Siemens Trio) mit jeweils einer SR-TurboFLASH und
SR-TrueFISP Pulssequenz untersucht. Dabei wurde je eine
Perfusionsmessung mit 3ml Gd-DTPA durchgeführt. Als Empfangsspule
wurden eine Thorax-Spule in Kombination mit einem im MR-Tisch
integrierten Rückenarray mit insgesamt 12 Empfangselementen
verwendet. Bei allen Sequenzen wurde GRAPPA mit einem
Beschleunigungsfaktor von 2 und 18 Referenzlinien sowie eine
Präparationszeit
(TI)
von
100ms
verwendet.
Die
übrigen
Pulssequenzparameter TR/TE/Flipwinkel waren wie folgt: 1,5T SRTurboFLASH
1,9ms/0,95ms/20°;
1,5T
SR-TrueFISP
1,88ms/0,94ms/~80°, 3,0T SR-TurboFLASH 2,52ms/1,26ms/20°; 3,0T
SR-TrueFISP 1,88ms/0,94ms/~32°. Die Ortsauflösung betrug in allen
Fällen 2,5x2,5x8,0mm^3. Es wurden das Signal- und Kontrast-zuRauschen (SNR und CNR) bestimmt sowie der myokardiale Blutfluss
(MBF) mittels Absolutquantifizierung unter Verwendung des Models
MMID4 kalkuliert und auf die Intraobservervariabilität untersucht.
Ergebnisse: Trotz des deutlich reduzierten Flipwinkels der SRTrueFISP Sequenz bei 3,0T, bedingt durch die erhöhte
Energiedeposition bei höheren Feldstärken, konnte diese das beste
SNR und CNR erzielen (siehe Abbildung 1). In der Bestimmung des
MBF konnten keine Unterschiede in Abhängigkeit der Feldstärke und der
verwendeten Pulssequenz gefunden werden. Jedoch war die
Intraobservervariabilität der MBF-Bestimmung, ermittelt durch die
Bestimmung des sogenannten Konkordanzkorrelations-Koeffizienten,
bei 3,0T höher. Dabei erzielte die SR-TrueFISP einen leicht höheren
Wert als die SR-TurboFLASH Sequenz (SR-TurboFLASH bei 1,5T: 0.86,
bei 3,0T: 0.89; SR-TrueFISP bei 1,5T: 0.56, bei 3,0T: 0.90) (siehe
Abbildung 2).
Abbildung 1: SNR und CNR Vergleich der Pulssequenzen SRTurboFLASH (Tfl) und SR-TrueFISP (Trufi) bei den verschiedenen
Feldstärken von 1,5T und 3,0T.
Abbildung 2: Intraobservervariabilität der Auswertungen mit SRTurboFLASH (Tfl) und SR-TrueFISP (Trufi) bei 1,5T und 3,0T. Die
weißen Boxplots entsprechen dabei jeweils der zweiten Auswertung des
Observers.
Diskussion: Für die quantitative Perfusionsbildgebung am Herzen ist
die SR-TrueFSIP Pulssequenz bei der Feldstärke von 3,0T die am
besten geeignete Pulssequenz. Sie erzielt die beste Bildqualität
hinsichtlich SNR und CNR und ermöglicht die beste Reproduzierbarkeit
sowie die geringste Streuung der Werte bei der Absolutquantifizierung
des myokardialen Blutflusses.
Motivation: In der Routine-MRI-Diagnostik können pathologische
Veränderungen von ca. 1mm bei Voxel-Größen von ca.
3
500x500x2000µm nachgewiesen werden. Höhere Ortsauflösungen bis
zur Mikroskopie (<100 µm) wären nicht nur für die frühzeitige Diagnose
in ersten pathologischen Entwicklungsphasen wichtig, sondern können
auch für ein Verständnis der mikrostrukturellen Ursachen für
makroskopisch-beobachtbare oder klinische Symptome im Sinne einer
MR-basierten Histologie hilfreich sein. Im vorliegenden Beitrag werden
Strategien zur Erzielung entsprechend hoher Auflösungen auf einen
Human-Scanner
mit
Mikroskopie-Hardware
mit
klinischer
Nutzeroberfläche erläutert und deren Ergebnisse und Limitierungen
beim Einsatz vorgestellt. MR-Mikroskopische, kontrastreiche Bilder
demonstrieren die Anwendbarkeit auf verschiedene kleine, humanbiologische Proben (ex-vivo). Die Ergebnisse einer Qualitätskontrolle
werden präsentiert. Die Voxel-Grössen sind hierbei um ca. einen Faktor
3
tausend (10 ) kleiner als typischerweise in der klinischen Routine
verfügbar.
Materialien und Methodik: Die verfügbaren hohen Feldstärken (B0=7T)
und kleine an das jeweilige Objekt angepasste sensitive Radiofrequenz
(rf)-Spulen (di=15mm bis di=72mm) erlauben eine hohe Sensitivität. Die
bei hohen Feldstärken starken Suszeptibilitätsartefakte und größeren
chemischen Verschiebungen erfordern hohe Bandbreiten/Pixel und
starke Gradientensysteme. Wir nutzen daher ein Gradienten-Insert mit
einer ca. 20-fach erhöhten Gradientenstärke (G=750mT/m, innerer freier
Durchmesser: 90mm) im Vergleich zu Ganzkörper-Gradienten. Damit
wird ebenfalls die Selektion dünner Schichten und eine starke
Diffusionswichtung möglich. Das Gradienten-Insert kann einfach auf die
Patientenliege aufgebracht und in den MR-scanner (i.d.: 600 mm)
eingeschoben werden. Im Rahmen einer Qualitätskontrolle wurden im
wesentlichen das Signal-zu-Rausch Verhältnis (SNR) und Ortsauflösung
via Modulations-Transfer-Funktion (MTF) untersucht. Hierbei kommt ein
speziell für die MR-Mikroskopie entwickeltes Phantom auf der Basis von
Plasmageätztem Silizium zum Einsatz, das periodische Strukturen
zwischen 32µm und 512µm aufweist. SNR und Auflösung wurden
systematisch für unterschiedliche rf-Detektoren, Gradientensysteme und
wichtige Protokollparameter (z.B. Bandbreite, Matrix, Mittelungen)
ausgewertet.
Ergebnisse: Die besten Ergebnisse hinsichtlich SNR und Auflösung
wurden mit einem zirkular-polarisiert detektierenden rf-Resonator
(di=19mm) erzielt (Turbo-Spin-Echo-Sequenz (TSE): TM=15 min, Mtx:
3
179x704x10, Voxelgröße: 47x28x200µm ). Eine laterale Auflösung von
34µm konnte am Gitter-phantom mit einer Modulation > 50% in der
Ebene der Schichtdetektion nachgewiesen werden. Die MRmikroskopischen Methodik lässt sich ebenfalls für Parameterselektive
Bildgebung (derzeit T1, T2, T1rho, Diffusivität) einsetzen. 3D-Bilder mit
mikroskopischer Auflösung wurden für verschiedene Human-biologische
Proben (z.B. osteoarthritischer Knorpel, entnommene Menisci, Sehnen)
generiert. Erste Vergleiche mit histologischen Bildern zeigen Detailreichen Kontrast. Die Interpretation vieler beobachteter feiner Strukturen
ist aber aufgrund nicht ausreichender Interpretations-Erfahrung bei der
hohen Auflösung nicht einfach und sollte auf der Basis von Vergleichen
mit histologischen Schnitten möglichst identer Schnittführung erfolgen.
Conclusio: MR-Mikroskopie auf humanen Hochfeld-MR-Scannern ist
unter Nutzung zusätzlicher spezieller (nicht-kommerzieller) HardwareKomponenten mit einem Klinik-ähnlichen User-interface möglich. Derzeit
beschränkt sich die Anwendung wegen der geringen Größe der
Detektoren auf Kunststoffe, kleine biologische Proben und entnommene
humane Gewebe (ex-vivo) im Sinne einer MR-basierten nichtzerstörenden 3D-Histologie. Die Anwendung an menschlichen
Extremitäten z.B. Finger ist prinzipiell vorstellbar, erfordert aber die
Zulassung bei der lokalen Ethik-Kommission unter Berücksichtigung
insbes. der starken benutzen Gradienten und der elektrischen
Sicherheit.
Dankesworte:
S. Domayer, J. Hofstätter, S. Leder, D. Stelzeneder für die Präparation der
Sehnen, Knorpel- und Bandscheibenpräparate und die histologischen
Schnitte; J. Friske für die Erstellung der Photos der histologischen
Schnitte. E. Moser und S. Trattnig: Leiter des Hochfeld-MR-Centers Wien
20.7
Magnetresonanz-Mikroskopie auf humanen HochfeldMagnetresonanz-Scannern: Welche Auflösungen sind möglich?
Perspektiven, Grenzen und Anwendungsbeispiele ex-vivo
1,2
A. Berg ;
1
Medical University of Vienna, MR Center of Excellence, Vienna, Austria,
2
Medical University of Vienna, Center for Medical Physics and
Biomedical Engineering, Vienna, Austria.
63
Sciences, Lübeck, Germany.
Session 21: Rekonstruktion,
Visualisierung, Technologien
21.3
Assessment of partial volume effect in small animal FDG-PET:
dependency on activity concentration and reconstruction method
1
1
1
1
1
J. Muellauer , R. Willimayer , J. Stanek , T. Wanek , M. Sauberer , O.
1
2
3
1
Langer , M. Mueller , W. Birkfellner , C. Kuntner ;
1
AIT Austrian Institute of Technology GmbH / Molecular Medicine,
2
Seibersdorf, Austria, Medical University Vienna / Department of Clinical
3
Pharmacology, Vienna, Austria, Medical University Vienna / Center for
Medical Physics and Biomedical Engineering, Vienna, Austria.
Objectives: We used hot spheres in a warm background to evaluate the
partial volume effect. The aim of this study was to investigate the extent
of PVE in a preclinical setting and to compare different correction
methods.
Methods: A NEMA micro-hollow sphere phantom with 4 spheres (7.81,
6.17, 5.02, 3.90 mm diameter) was filled with [18F]FDG. PET
measurements were performed with two different acquisition settings
(250-750 keV and 350-750 keV energy window) on a small animal
scanner. Total activity in the field of view (FOV) ranged from
221.20±74.67 MBq to 22.75±8.73 MBq. Sphere-to-background activity
concentration ratios (sph/bg ratio) of 20:1, 10:1, 5:1 and 2:1 were
investigated. Images were reconstructed using FBP and OSEM-MAP
with attenuation correction. Four methods for partial volume correction
(PVC) were investigated: (a) the recovery coefficient (RC) method
described by Srinivas et.al.(1), (b) the RC method described by Phelps
et.al.(2), (c) the automatic PVC implemented in PMOD3.2 and (d) the
masked based method described by Hoetjes et.al.(3).
Results: For all studied concentration ratios, the highest RC values
were found for the measurements with the highest activity in the FOV.
RCs derived from the OSEM-MAP reconstructed images were always
higher as compared to FBP reconstructed images. For the larger energy
window (250-750 keV) RC values were superior to the values calculated
for the smaller window (350-750 keV) for all studied concentrations. PV
corrected activities of all methods were compared with the true activities
and between each other. Interestingly, the simplest method for PVE
correction (Phelps et al [2]) yielded the best agreement for 20:1, 10:1
and 5:1 (only for the 350-750 keV) sph/bkg ratios. For the lower
concentration ratios (5:1, 2:1) the automatic PVC implemented in PMOD
worked best. Only one sph/bkg ratio (5:1) could not be corrected with
any PVC method. Inaccurate RCs (<0) were found for the 2:1 ratios in
the smallest sphere (3.90 mm) using FBP. PVE correction showed to be
slightly dependent on the activity in the field of view.
Conclusion: This study was able to show the importance and impact of
PVC when performing quantitative measurements in small structures.
1. S. M. Srinivas et al., Ann Nucl Med 23, 341 (Jun, 2009).
2. M. E. Phelps, PET: Molecular Imaging and Its Biological Applications.
M. E. Phelps, Ed., (Springer, Berlin, ed. 1st ed. Softcover of orig. ed.
2004, 2004).
3. N. J. Hoetjes et al., Eur J Nucl Med Mol Imaging 37, 1679 (Aug,
2010).
21.4
Sparse recovery for SPECT imaging of inflammation at implants
1,2
1,2
1
M. Kleine , J. Hamer , T. M. Buzug ;
1
Institute of Medical Engineering, University of Lübeck, Lübeck,
2
Germany, Graduate School for Computing in Medicine and Life
64
The treatment of implant loosening requires a diagnosis of its cause for
the operation planning of the implant replacement. If the loosening has
mechanical reasons the implant may be replaced directly in one surgical
intervention. On the contrary, if the loosening is caused by a bacterial
inflammation this has to be factored into the operation planning. As the
implant is not accessible before an operation it is the aim of this project
to develop molecular imaging strategies for the noninvasive detection of
bacterial inflammations.
For the imaging process, substances which accumulate at bacterial
inflammations on implant surfaces are marked with radioactive tracers.
The radioactive decay of the tracers is then detected with a SPECT or
PET measurement. Due to the fact that the number of radioactive events
will be small and that the inflamed surface is embedded in an absorbing
and scattering environment a precise attenuation correction, motion
correction and an adapted reconstruction strategy is necessary.
The attenuation coefficients can be determined by a CT scan, which can
be accomplished in advance or simultaneously in case of a combined
device. As the presence of metal implants usually results in severe
artifacts in the CT reconstruction, these artifacts have to be corrected
first to achieve more accurate attenuation values. The spatial distribution
of the attenuation values can then be used in the SPECT reconstruction
process as a correction term.
The usual acquisition time of a SPECT examination ranges between 5
and 30 minutes. As a consequence, the acquisition will include position
adjustments of the patient. These position changes provoke motion
artifacts in the reconstructed image and may decrease the image quality
significantly. Therefore strategies to correct linear as well as nonlinear
patient motion have been developed. If the CT measurement is
performed with a separate device, the technique also allows for
correcting displacements between the CT and the SPECT image. This
registration step is essential for a correct alignment of the spatial
distribution of the attenuation coefficients.
Exploiting the fact that the statistics of radioactive events are low and
SPECT images are smoothened, the application of methods from
compressed sensing leads to a sparse recovery for SPECT. The
measurement can be modeled by the attenuated Radon transform which
is a nonlinear operator. Due to discretization and noisy data the
reconstruction is generally an ill-posed problem, such that regularization
is needed for a stable recovery. The image reconstruction is normally
achieved by iterative schemes, which are computational expensive. If
sparsity is introduced as an additional constraint, this leads to faster
iteration algorithms as only few important coefficients of the sparse
expansion are considered. Additionally, the reconstruction with sparsity
constraints can deliver images with much sharper contours, which is of
interest for particular medical applications such as the presented project.
Session 22: Rekonstruktion,
Visualisierung II
22.1
Iterative statistische Rekonstruktion für ein hochauflösendes
Medipix3-CT-System
1,2
2
2
2
2
1
J. Luebke , S. Procz , A. Fauler , A. Zwerger , M. Fiederle , M. Mix ;
1
Universitaetsklinikum Freiburg - Abteilung Nuklearmedizin, Freiburg,
2
Germany, Freiburger Materialforschungszentrum, Freiburg, Germany.
Eine große Herausforderung in der computertomographischen
Bildgebung ist eine weitere Reduktion der Patientenstrahlendosis bei
einer gleichbleibenden Bildqualität. Eine einfache Dosisreduktion
resultiert in der Regel allerdings in einem erhöhten Bildrauschen und
führt zu einer schlechteren Erkennbarkeit von Niedrigkontrastobjekten
und kleinen strukturellen Details. Besonders geeignet für niedrige
Strahlendosen
mit
geringer
Zählstatistik
sind
statistische
Rekonstruktionsansätze. In der Routine-CT-Bildgebung konnte auf diese
Weise der CT-Dosisindex um bis zu 65% bei gleicher Bildqualität
reduziert werden [1]. Der Einsatz von photonenzählenden,
direktkonvertierenden Detektoren auf Basis von Halbleitern führt
ebenfalls zu einer Maximierung der Bildinformation bei einhergehender
Strahlenreduzierung [2]. In dieser Arbeit soll eine Kombination einer
iterativen statistischen Rekonstruktion mit dem photonenzählenden
Medipix3 als Detektor vorgestellt werden [3].
Der hochaufgelöste tomographische Messplatz ist für die präklinische ex
vivo und in vivo Anwendung konzipiert. Mit geometrischer Vergrößerung
konnte bei zweidimensionalen Messungen bereits eine Ortsauflösung
von 4µm realisiert werden [4]. Die tomographische Rekonstruktion
basiert auf einem, für die Transmission modifizierten, Ordered Subset
Expectation Maximization Algorithmus (mTR-OSEM) [5-6].
Um eine hohe Bildqualität zu erzielen, wurden die Aufnahmeparameter
(Röntgenenergie, Akquisitionszeit, Anzahl der Projektionswinkel,
geometrische Parameter des Messplatzes), die Datenvorverarbeitung
(Kalibrierung der Energieschwellen, Normalisierung, Ersetzen defekter
Detektorpixel) und die Rekonstruktionsparameter (Anzahl Iterationen,
Anzahl
Subsets,
Filtermethoden)
optimiert.
Zusätzliche
Regularisierungsmethoden wurden getestet.
Die Beurteilung der Bildqualität erfolgt anhand der erzielten örtlichen
Auflösung, der Homogenität, des Signal-zu-Rausch- und des Kontrastzu-Rausch-Verhältnisses. Diese dienen gleichzeitig der Optimierung der
zuvor genannten Parameter. Messungen wurden mit verschiedenen
Phantomen (Niedrigkontrast-, Barpattern-, Homogenitätsphantom) und
biologischen Objekten (z.B. Mauspfote, Baumrinde) durchgeführt. Erste
Rekonstruktionsergebnisse des Barpattern-Phantoms (Abb.1) sowie
einer Mauspfote (Abb.2) zeigen bereits ohne geometrische
Vergrößerung eine vielversprechende Bildqualität mit einer örtlichen
Auflösung < 100µm. Die Evaluierung des entwickelten Algorithmus
erfolgt mit unterschiedlicher Röntgendosis im Vergleich zu einem
vorhandenen Filtered-Back-Rekonstruktionsalgorithmus.
Abbildung 1: links: Rekonstruktion des Barpattern-Phantoms (28kV,
150µA, 200 Projektionswinkel, 10 Iterationen, 10 subsets, keine
Filterung), rechts: Spezifikationen des Barpattern-Phantoms [7]
Abbildung 2:
Maximum-Intensitäts-Projektion der Rekonstruktion einer Mauspfote
(28kV, 150µA, 200 Projektionswinkel, 8 Iterationen, 10 subsets, keine
Filterung)
[1] Hara A.K et al., “Iterative reconstruction technique for reducing body
radiation dose at CT: feasibility study “, AJR Am J Roentgenol, 193(3),
pp. 764 - 771, 2009
[2] Watt, J. et al., “Dose reductions in dental X-ray imaging using
Medipix”, Nucl. Instr. and Meth., 513, pp. 65-69, 2003
[3] Ballabriga, R. et al. “The Medipix3 Prototype, a Pixel Readout Chip
Working in Single Photon Counting Mode With Improved Spectrometric
Performance”, IEEE Trans. Nuc. Sci., 54(5), pp. 1824-1829, 2007
[4] Procz, S. et al., “Energieaufgelöster CT-Messplatz mit hoher örtlicher
Auflösung“, Medizinische Physik (41. Jahrestagung der DGMP
Freiburg), 2010
[5] Hudson, H. M. et al., “Accelerated image reconstruction using
ordered subsets of projection data”, IEEE Trans. Med. Im., 13(4), pp.
601-609, 1994
[6] Lübke, J. et al., “Statistical Reconstruction for a high resolution
Medipix-CT”, IEEE RTSD Knoxville Conference Record, R08-6, 2010
[7] http://www.qrm.de/content/pdf/QRM-MicroCT-BarpatternPhantom.pdf
22.2
Simulation of Grating-based hard X-ray imaging using Monte Carlo
methods
1,2
1,3
4
4
1,2
S. Peter , P. Modregger , M. K. Fix , P. Manser , M. Stampanoni ;
2
Paul Scherrer Institut, Villigen, Switzerland, Eidgenössische
3
Technische Hochschule Zürich, Zürich, Switzerland, University of
Lausanne, School of Biology and Medicine Lausanne, Lausanne,
4
Switzerland, Division of Medical Radiation Physics, Inselspital –
University of Bern, Bern, Switzerland.
1
Introduction: Grating-based hard X-ray imaging (GI) is a recently
established imaging technique, which utilizes a combination of a phase
and an absorption grating in order to facilitate phase sensitivity [1]. GI
simultaneously provides three different contrast modalities: absorption,
phase and dark-field contrast. Since phase contrast has been shown to
be extremely sensitive to electron density variations [2], GI is especially
suitable for imaging soft tissue samples for biomedical research.
Numerical simulations may be used for obtaining a deeper theoretical
understanding of the image formation process and, thus, for optimizing
the experimental setup and the data analysis procedures. However,
while phase contrast relies on beam coherence, dark-field contrast is
related to incoherent scattering. Therefore, it is necessary to consider
65
both wave-like and particle-like properties of the X-rays. Scattering is
conveniently simulated by Monte Carlo (MC) methods but MC neglects
coherent effects such as interference and phase-shift. On the other hand
coherent effects are commonly simulated using wave-optics, in which,
however, scattering cannot be modeled in a straight forward way.
Method and Materials: In this work, we developed a numerical
framework combining MC and wave optics simulations. The simulation
was split into two parts. For the first part, modeling the source and the
sample, MC was used. The second part, modeling the phase and the
absorption grating, was conducted using wave optics. For the MC part of
the simulation EGS++ [3] was used.
To connect the two parts it is necessary to have the resulting signal of
the MC simulation in form of a complex amplitude. Therefore, the MC
code was expanded to include the optical path length as an additional
variable for each particle to track phase-shift information. Furthermore,
the refraction on surfaces and total external reflection were included in
the particle transport. Each particle corresponds to a plane wave, which
were then coherently summed up. The resulting amplitude is passed on
into the wave optics part, where it is propagated through both gratings.
Finally, the three contrasts are obtained by Fourier-based analysis [1].
Simulated tomographic images are acquired by reconstructing projection
images taken at different rotation angles of the sample.
Results: The model was used to simulate the phase signal of several
different phantoms. The reconstructed images matched the input
phantoms.
Conclusion: The agreement between input and output shows that the
combination of MC and wave optics simulations was successful. The
model can now be used for realistic investigations of the image formation
process taking into account both coherence and scattering effects. For
example the origin of the dark-field signal is believed to be correlated to
the incoherent scattering but details are unknown up to now.
References:
[1] T. Weitkamp et al, X-ray phase imaging with a grating interferometer,
Opt. Express 2005; 13(16):6296.
[2] F. Pfeiffer et al, High resolution brain tumor visualization using threedimensional X-ray phase contrast tomography, Phys. Med. Biol. 2007
[3] I. Kawrakow et al, The EGSnrc C++ class library, NRC Report PIRS898 (rev A), Ottawa, Canada, 2009.
22.3
A statistical algorithm using Gaussian Markov Random Fields for
the segmentation of PET data for Targeted Radionuclide Therapy
1,2
1
2
T. Layer , M. Blaickner , G. Matz ;
1
Health & Environment Department - Molecular Medicine, AIT Austrian
2
Institute of Technology, Vienna, Austria, Vienna University of
Technology, Dep. of Communications and Radio-Frequency
Engineering, Vienna, Austria.
Aim: The aim of this work is to support computational treatment planning
for Targeted Radionuclide Therapy (TRT) by means of cancer tissue
classification algorithms. In TRT radioactive labelled tracer absorbed by
tumour tissue apply dose to cancerous tissue. Segmentation of PositronEmission-Tomography (PET) data enables to distinguish between a
voxel belonging to the tumour or to healthy tissue. The common clinical
practice is based on threshold models which are sensitive to parameters
like signal to background ratio (SBR) or tumour size. In this work
statistical algorithms are implemented to overcome these dependencies.
Materials and Methods: In order to evaluate the proposed algorithms
measurements of a remodelled NEMA-phantom are processed,
consisting of a cylindrical outer body homogeneous filled with
background-activity and 6 spherical inlays homogeneous filled with
foreground-activity. The Partial Volume Effect (PVE) is accounted for by
replacing the biggest sphere by a sphere of 8mm diameter and 0.27ml
volume. The set of spheres therefore comprises the ones with diameter
[mm]/volume[ml] of 8/0.27, 10/0.52, 13/1.15, 17/2.57, 22//5.58 and
28/11.49. Different ratios of sphere-activity/cylinder-activity (SBR) have
been measured (2.06, 3.84, 6.72, and 9.39).
Basically a Gaussian Mixture Model (GMM) is established to estimate
the volume of the sphere which represents the tumour. Markov
properties are declared to the unobserved label vector (MRF) and Gibbs
distributions are used for describing neighbouring dependencies.
Results: Because of insufficient statistical ensembles for small spheres
and by using two Gaussian distributions the estimates for background
parameters work very well. Consequently the PVE voxels get included to
the sphere volumes. The use of the GMRF initialized by a specific choice
of Expectation Maximization (EM) procedure for Gaussian mixtures
provides a better accuracy for the volumes of the spheres than with
threshold methods. With decreasing S/B ratio the segmentation of
spheres according to the proposed method results in an increase of the
estimation errors and the loss of the smallest spheres. However at larger
S/B ratios and small spheres a noticeable improvement over Fuzzy
Logic approaches is observed, diminishing the error by ~50%.
66
Conclusion: Measurements for the smallest sphere (8mm) have been
performed and processed for the first time within this work and
demonstrated the difficulty of segmentation algorithms when applied to
spatial dimensions in the same order as the voxel size.
22.4
Improving Time-of-flight PET using Silicon Photomultipliers
1,2
1
1,2
3
2,3
S. E. Brunner , G. Ahmed , L. Gruber , A. Hirtl , M. Jankovec , P.
4
1
1
Knoll , J. Marton , K. Suzuki ;
1
Austrian Academy of Sciences / Stefan Meyer Institute for Subatomic
2
Physics, Vienna, Austria, UT Vienna / Faculty of Physics, Vienna,
3
Austria, Medical University of Vienna / Department of Nuclear Medicine,
4
Vienna, Austria, Wilhelminenspital / Department of Nuclear Medicine
with PET center, Vienna, Austria.
Aim: Positron emission tomography (PET) has proven its clinical
importance over the last years. Recent developments in detector
technology led to the commercial construction of first time-of-flight (TOF)
PET devices, resulting in enhanced image contrast, lower patient's dose
and shorter examination times. Commercial TOF-PET-scanners with
coincidence time resolutions of 500-600 ps FWHM are already available.
Goal of the proposed work is the improvement of time resolution for
TOF-PET towards a coincidence time resolution of 100 ps FWHM with
detectors insensitive to magnetic fields.
Materials and methods: To achieve this goal, silicon photomultipliers
(SiPMs), which are arrays of avalanche photodiodes operated in Geigermode, are developed by our collaboration. SiPM is a novel photosensor
which became available on the market recently. Along with many
comparable features to the ordinary vacuum photomultiplier, it has
considerably smaller size and insensitivity to the magnetic field. For
testing purposes SiPMs with dedicated electronics are attached to a
LSO crystal and are stabilised in temperature using Peltier elements.
The first experimental setup consisted of 3x3 mm² Hamamatsu MPPC
S10931-100P and the signals were read out by self developed
electronics. Benchmark measurements are performed using a laser (λ =
22
407 nm) and a Na source (500 kBq). For signal visualisation a LeCroy
WavePro 735Zi oscilloscope (40 Gs/s, 3.5 GHz) was used.
For the development of a future TOF-PET prototype, Monte Carlo (MC)
simulations using the framework GATE (Geant4 Application for
Tomographic Emission) are performed to optimise the experimental
setup.
Results: The time resolution of the first detector prototype was
measured under various conditions, i. e., overvoltage (Vover) and
temperature (T) for the detector array. Additionally, the influence of
different laser light intensities was investigated. At optimal parameter
settings (Vover = 1.3 V, T = −10 °C) the time resolution was below 130 ps
FWHM. First MC simulations indicate that the currently used setup can
be extended into a full-ring PET scanner with optimised detector
geometry.
Conclusions and outlook: The operability of the experimental setup
has been proven and showed encouraging results in terms of time
resolution and detector stability. Currently, hardware upgrades of the
electronics part with ASICs (application-specific integrated circuit) like, e.
g., the NINO chip developed at CERN, are in progress.
Additionally, simulations for optimisation of the geometry of a PET
prototype are performed. Especially, the influence of variations of radius
and crystal dimensions is studied in detail. These results will be
implemented into the design of a TOF-PET prototype based on SiPMs
with envisaged time resolution of 100 ps. For data analysis and image
reconstruction dedicated software will be developed.
22.5
FFP-Trajectory Correction for Magnetic Particle Imaging
T. F. Sattel, T. M. Buzug;
Institute of Medical Engineering, University of Lübeck, Lübeck, Germany.
Introduction: To determine the spatial distribution of superparamagnetic
iron oxide nano-particles (SPIOs), Magnetic Particle Imaging (MPI)
applies time varying fields [1]. Thus, a field free point (FFP) is moved
through the object of interest and the SPIOs volume data can be
reconstructed from induced receive signals. Due to imperfect field
geometries, the FFP-trajectory is deformed, which affects the achievable
image quality [2,3].
Methods: The derogation of the FFP-trajectory can be corrected for by
adapting the currents on the field generating coils. For this purpose, the
desired ideal field is determined for each point in time . The magnetic
field coil profiles of each coil are time-invariant and can be precomputed
by evaluation of the Biot-Savart law. Alternatively, they can be measured
in an experimental setup. The problem of determining appropriate coil
currents for magnetic field generation can be formulated mathematically
as solving the inverse problem
written in matrix-vector notation. For improved results, an additional
weighting matrix is introduced, considering only points in close vicinity of
the actual FFP position. For evaluation of this method, simulations are
performed using the MPI scanner geometry and scanning pattern
applied in [4]. Finally, the original and the corrected FFP-trajectories are
evaluated.
Results: By solving the inverse problem, the currents on the field
generating coils can be adapted such that the resulting magnetic field
matches a given ideal geometry. The simulation study performed for this
contribution shows a distinct improvement in FFP-trajectory for the
investigated MPI scanner geometry. For each point in time, the residual
of the resulting magnetic field is calculated, confirming the good match of
the desired field.
Conclusion: The described method allows determining the currents on
the field generating coils at each point in time such that the magnetic
field is optimized in vicinity of the FFP. The FFP-trajectory, which
originally differs from the ideal scanning pattern, can be corrected. This
enables new, fast reconstruction methods without introducing new image
artefacts.
References:
[1] B. Gleich et al, “Tomographic imaging using the nonlinear response
of magnetic particles”, Nature, vol. 435, no. 7046, pp. 1214-1217, 2005
[2] T Knopp et al, “Trajectory analysis for magnetic particle imaging”,
2009, Phys. Med. Biol. 54, pp. 385
[3] H. Schomberg, “Magnetic particle imaging: Model and
reconstruction”, IEEE ISBI, 2010, pp. 992-995
[4] J. Weizenecker et al, “Three-dimensional real-time in vivo magnetic
particle imaging,” 2009, Phys. Med. Biol., 54, no. 5, pp. L1-L10
the mean activity for the TrueX-algorithm were used, as recommended
by the manufacturer. For the TrueXAllpass with 4i21ss the coefficients
were A=1.31±0.03 and B=0.23±0.01.
Comparing the results for threshold and C to [1], a signifanct deviation
was observed when using the Allpass-filter instead of the Gauss-filter.
The mean VSUVabs2.5 reproduced 64 % of the CTV for all algorithms
(4i21ss), whereas VSUVrel40% reproduced only 30%-50% of the CTV
depending on the reconstruction algorithm. Compared to the OSEMalgorithm, the mean RC values were higher by 20% and 60% for the
TrueXGaussian and the TrueXAllpass algorithm, respectively.
Conclusion: The results for threshold or activities derived from images
reconstructed with the TrueX-algorithm, especially when used the with
Allpass-filter, are more sensitive to permutations of iterations and
subsets than for the OSEM-algorithm.
[1] Knäusl et al, ZMP,2011
22.6
Investigation of the influence of different filter settings and
permutations of iterations and subsets on the TrueX algorithm in
positron emission tomography
1,2
1,2
1
1
1
I. Rausch , B. Knäusl , A. Hirtl , G. Dobrozemsky , R. Dudczak , H.
3
2
Bergmann , D. Georg ;
1
2
Department of Nuclear Medicine, MUW, Vienna, Austria, Department
3
of Radiotherapy, MUW, Vienna, Austria, Center for Medical Physics and
Biomedical Engineering, MUW, Vienna, Austria.
Background: PET/CT imaging has become increasingly important in
radiotherapy treatment planning, target volume delineation and therapy
progress assessment. For absolute quantification of reconstructed PET
images the standardised uptake value (SUV) is an essential quantity. It
strongly depends on volume segmentation and activity estimation based
on the reconstructed image. Therefore the influence of reconstruction
algorithms and their settings has to be investigated in detail. In this study
the influence of filter settings and of all possible permutations of
iterations (i) and subsets (ss) was investigated for the OSEM and the
Siemens specific TrueX-algorithm.
Material and Methods: Phantom measurements with different signal-tobackground-ratios (SBRs) were performed on a Siemens Biograph64
PET/CT Scanner (Siemens, Medical Systems). A NEMA IEC/2001
Image Body Phantom consisting of a liquid filled cylinder with plexiglass
spheres (0.27, 1.15, 2.57, 5.58, 11.49ml) was used. All measurements
were reconstructed using the OSEM and the TrueX-algorithm with all
permutations of iterations (2, 4, 8) and subsets (4, 8, 14, 21), e.g., 2i4ss
for 2 iterations and 4 subsets. The Gauss-filter was used for both
algorithms whereas the “Allpass-filter” was used only for the TrueXalgorithm. All results were compared to 4i21ss. For threshold-based
volume segmentation and activity determination the software Rover
(ABX, Dresden) was used and the data were analysed with R (v.2.12.1).
For activity evaluation the recovery coefficient RC (measured activity
divided by true activity) and its inverse, the correction factor C, were
determined. Additionally, images of five PET examinations of irradiated
lung tumour patients were reconstructed using OSEMGaussian,
TrueXGaussian and TrueXAllpass with 4i21ss. Volumes were delineated
using a fixed threshold (absolute SUVmax=2.5g/ml (VSUVabs2.5);
relative SUVmax=40% (VSUVrel40%)) and compared to the CTV.
Results: For large spheres (>= 2.57ml) a constant threshold was found
for a given SBR and algorithm for all settings. The mean threshold for
these spheres was calculated according to TH=a+b/SBR. For
TrueXAllpass the following parameters were found: a=23.6±0.8,
b=55.7±3.0. Compared to the results of the 4i21ss fitting curve, the
deviation of the threshold was highest with about 45% for 2i4ss for a
SBR of 2.06 for all algorithms. Increasing the number of iterations and
subsets lowered this difference, as expected.
The
correction
factor
was
fitted
according
to
Calgorithm=A*exp(B/VSphere). The maximum activity for the OSEM and
67
Session 23: Biochemische und
molekulare Informationen im MRSignal: Spektroskopie und mehr
23.1
State-of-the-Art Lecture: X-Kern (Natrium) Bildgebung in vivo
L. Schad;
Universität Heidelberg / Computerunterstützte Klinische Medizin,
Mannheim, Germany.
1
Neben dem Wasserstoff ( H) können prinzipiell auch andere MR-aktive
23
35
39
Atomkerne (X-Kerne), wie Natrium ( Na), Chlor ( Cl), Kalium ( K), etc.
zur Bildgebung der Gewebevitalität genutzt werden, obwohl die
Messung eines X-Kern Signals u.a. aufgrund der niedrigen
Konzentration im Gewebe und des zumeist sehr niedrigen
gyromagnetischen Verhältnises deutlich schwieriger ist. Ein klinisch
interessantes Thema zur Messung der Gewebevitalität mittels X-Kern
Bildgebung bietet die Schlaganfallforschung, wo es wenige Minuten
nach dem Verschluss einer hirnversorgenden Arterie wegen mangelnder
Zufuhr von Metaboliten und Sauerstoff zu einem Abfall von
Adenosintriphosphat (ATP) mit Funktionsverlust der Na/K-ATPase
kommt. Dadurch können die Nervenzellen ihr Membranpotential nicht
mehr aufrechterhalten. Der daraufhin folgende Einstrom von Natrium
und Chlorid in die Zelle führt zum einen zur Freisetzung exzitatorischer
Aminosäuren (Glutamat) und zum anderen zu einem Anschwellen der
Zellen (zytotoxisches intrazelluläres Ödem), das mit einer
Einschränkung der Wasserdiffusion einhergeht. Natriumionen spielen
eine wesentliche Rolle bei der Aufrechterhaltung des zellulären
Gleichgewichts, da sie einen elektro-chemischen Gradienten über die
Plasmamembran hinweg aufbauen. Durch diesen Gradienten werden im
Hirngewebe die Osmose reguliert, der pH-Wert stabilisiert und
Aktionspotentiale entlang der Axone weitergeleitet. Die extrazelluläre
23
Na Konzentration in den intra- und extravaskulären Kompartimenten
beträgt etwa 140 mM; intrazellulär ist die Konzentration wesentlich
geringer und liegt bei etwa 10 mM. In der weißen Hirnsubstanz, in der
dicht gepackte Gliazellen den Hauptvolumenanteil bilden, nimmt der
Extrazellulärraum etwa 6-20% des Gesamtvolumens ein.
Die Natrium-Bildgebung bietet somit die einmalige Möglichkeit, aufgrund
der Änderung der Natriumkonzentration (gesundes Gewebe liegt bei
etwa 18-36 mM) die Vitalität des Hirngewebes nach Schlaganfall zu
bestimmen. MR-Messtechniken zur Natrium-, Chlor- und KaliumBildgebung,
erste
Ergebnisse
einer
experimentellen
Schlaganfallforschung in Ratte/Maus bei 9.4 Tesla, sowie erste
Pilotversuche am Menschen bei 3 Tesla werden vorgestellt.
23.2
CE Lecture: Grundlagen und Anwendungen der MagnetresonanzSpektroskopie
C. Boesch;
University & Inselspital, Bern, Switzerland.
Bevor die Erfolgsgeschichte der Magnetresonanz in der klinischen
Diagnostik begann, war die NMR-Spektroskopie („nuclear magnetic
resonance spectroscopy“) in den Labors der Chemie, Physik, und
Pharmazeutik bereits fest etabliert. Heute existiert wohl kein
Medikament, welches nicht bei der Entwicklung oder mindestens bei der
Produktion mit NMR in Berührung kam und die molekulare Struktur von
vielen Chemikalien bis hinauf zu Proteinen und anderen grossen BioMolekülen wäre noch unbekannt.
Die Magnetresonanz-Spektroskopie (MRS), d.h. die in vivo Variante der
NMR, konnte bis heute nicht mit dem Erfolg von der in vitro NMR oder
der MR-Bildgebung mithalten, obwohl die nicht-invasive Untersuchung
des Stoffwechsels enorm attraktiv wäre. Es hat mehrere Gründe dafür,
wobei die hohen Anforderungen an die Geräte (Feldstärke,
Feldhomogenität, Frequenzen der verschiedenen Kerne, usw.) ein
Hauptgrund sind.
In diesem Einführungsvortrag sollen die Grundlagen der MRS erarbeitet
werden und es soll gezeigt werden, wie die räumliche Lokalisierung der
MR-Spektren funktioniert und wie die zusätzliche Dimension (chemische
Verschiebung) wichtige Informationen über das untersuchte Gewebe
gibt. Während die klassische MR-Bildgebung sich weitgehend auf die
Beobachtung von Wasserstoff und da fast ausschliesslich auf die
Beobachtung von Wasser und Fett limitiert, funktioniert ein beachtlicher
Teil der MRS Anwendungen via andere Kerne als Wasserstoff, so z.B.
über 13-Phosphor oder 13-Kohlenstoff. Diese Isotope sind weniger MRsensitiv als Wasserstoff und stellen zudem nicht immer 100% des
beobachteten Elements, was zu einer drastischen EmpfindlichkeitsReduktion führt. Da die interessanten Stoffwechselprodukte zudem um
viele Grössenordnungen weniger konzentriert sind als Wasser, sind die
68
relativen Empfindlichkeiten der MR Spektren von nicht-WasserstoffKernen in Stoffwechselprodukten um viele Zehnerpotenzen kleiner als
die Bildgebung von Wasser/Fett. Korrigiert werden muss dieser Nachteil
über grössere Volumina, respektive über kleinere räumliche Auflösung
als bei der Bildgebung. Damit lässt sich auch der optimale Einsatz der
MRS abschätzen, der nicht so sehr in fokalen, räumlich begrenzten
Läsionen liegt, sondern in der Untersuchung von systemischen
Erkrankungen und physiologischen Vorgängen.
Erfolgreiche humanmedizinische Anwendungen der MRS sind neben
vielen anderen Beispielen bei Studien der Insulinresistenz zu finden.
Wenn man bedenkt, dass je nach Land über 40% einer Altergruppe (vor
allem bei älteren Menschen) an Insulinresistenz leiden und dass diese
Erkrankung einen Grossteil der Herzkreislauf-Erkrankungen mit
gigantischer Kostenfolge für die Gesundheitssysteme verursacht, dann
wird die Bedeutung von nicht-invasiven Studien mittels MRS klar.
Mit der zusätzlichen Verfügbarkeit von Hochfeld-MR Geräten in
klinischer Umgebung wird sich die MRS dank besserer spektraler
Auflösung und höherer Empfindlichkeit weiter entwickeln können.
Wichtig ist aber, dass hauptsächlich die Stärke der MRS für
systemische, nicht-fokale Erkrankungen verstanden und die MRS
dementsprechend eingesetzt wird.
23.3
Optimierung der Auswertung von MR-Spektren aus dem Hirnstamm
1
2
2
1
2
A. Gröger , R. Schäfer , R. Kolb , D. Berg , U. Klose ;
Zentrum für Neurologie, Abteilung Neurodegeneration, Hertie-Institut für
klinische Hirnforschung, Universität Tübingen, Tübingen, Germany,
2
Abteilung für Diagnostische und Interventionelle Neuroradiologie,
Universitätsklinikum Tübingen, Tübingen, Germany.
1
Einleitung: Der Hirnstamm gilt wegen erhöhten magnetischen
Feldstörungen als problematische Region für die MR-Spektroskopie.
Durch Verwendung kleiner Voxel können aber Spektren mit guter
Qualität erhalten werden (Gröger, 2011). Allerdings war die
Standardauswertung mit LCModel aufgrund stark variierender
Basislinien deutlich fehlerbehaftet (Helms, 1999; Emir, 2010) und ein
Vergleich der Metabolit-Konzentrationen nicht möglich. Ziel der Arbeit
war es daher, die Randbedingungen für die LCModel-Analyse so zu
optimieren, dass eine Quantifizierung der Metabolite ohne
Basislinieneffekte möglich wurde.
Methoden: Es wurden 22 junge gesunde Kontrollpersonen (24 - 30
Jahre) mit einer 3D-CSI-Sequenz (TE = 30 ms, TR = 1,3 s, Voxelgröße 6
3
× 6 × 7 mm ) im Bereich des Hirnstamms untersucht. Die Spektrenauswertung erfolgte mit LCModel Version 6.2-2B (S. W. Provencher) in
dem Bereich von 3,9 ppm bis 0,8 ppm. Der LCModel-Algorithmus
analysiert ein in vivo-Spektrum als Linearkombination von einem Satz in
vitro-Modellspektren. Bei der Linearkombination aller in einem Spektrum
enthaltener Substanzen sollte eine flache Basislinie übrig bleiben, die in
ihrer Neigung nur von der Flanke des deutlich intensiveren Wassersignal
beeinflusst sein kann (Seeger, 2003). Der verwendete StandardBasisdatensatz enthielt alle 17 empfohlenen Modellspektren sowie fünf
simulierte Makromoleküle. Nur Laktat wurde aus der Simulation
ausgeschlossen. Die Randbedingungen wurden durch Simulation
weiterer Signale derart optimiert, dass die Bedingungen einer flachen
Basislinie und einer vernachlässigbaren Differenz zwischen dem
gemessenen Spektrum und der berechneten Anpassung erfüllt waren.
Ergebnisse: Insgesamt wurden 88 qualitativ gute Spektren (Signal-zuRauschen: 9,3 ± 1,8, Linienbreite: 0,079 ± 0,021 ppm) mit identischem
LCModel-Protokoll ausgewertet. In allen Fällen wurden die Bedingungen
einer flachen Basislinie und einer vernachlässigbaren Differenz erfüllt.
Dafür wurden insgesamt 11 weitere Signale zwischen 1,81 ppm und
3,78 ppm durch Simulation in die Auswertung eingeführt. Die Ergebnisse
sind beispielhaft für ein Spektrum in Abb. 1 dargestellt. Innerhalb der
untersuchten Gruppe konnten so stabile Werte für die Konzentrationen
der drei Hauptmetabolite N-Acetylaspartat, Kreatin und Cholin (Tab. 1)
ohne zusätzliche Korrekturen (Spulenlast, Skalierung auf Wassersignal)
erhalten werden.
Diskussion: Es konnte gezeigt werden, dass die Optimierung der
Anpassungsparameter für die LCModel-Analyse zu stabilen MetabolitKonzentrationen innerhalb einer Gruppe von Probanden führt. Die
verbesserte Anpassungsqualität war gekennzeichnet durch eine flache
Basislinie und eine vernachlässigbare Differenz zwischen dem
gemessenen Spektrum und dem berechneten Fit. Vier der 11
eingeführten Signale könnten Glycin, Cystein (LCModel Manual) und
Vitamin C (Terpstra, 2004) entsprechen. Durch die Erhöhung der
Freiheitsgrade ist das System jedoch deutlich überbestimmt, was die
Stabilität der Ergebnisse, besonders bei Metaboliten geringer
Konzentration, beeinflussen kann.
Referenzen:
Gröger et al., Eur Radiol 2011.
Helms, Magn Reson Imaging 1999; 17:1211-1218.
Emir et al., NMR Biomed 2011; 24: 263-269.
Seeger et al., Magn Reson Med 2003; 49:19-28.
Terpstra et al., Magn Reson Med 2004; 51:225-229.
Tab. 1: Abgeschätzte Konzentrationen für N-Acetylaspartat, Kreatin und
Cholin.
Metabolit
NAA+NAAG
Cr+PCr
GPC+PCh
NAA/Cr
Konzentration
rostral [mM]
118,3 ± 16,0
79,5 ± 10,8
23,5 ± 3,4
1,51 ± 0,17
Konzentration
caudal [mM]
112,7 ± 15,7
81,3 ± 10,2
27,4 ± 4,4
1,40 ± 0,14
Verhältnis
rostral/caudal
1,06 ± 0,11
0,98 ± 0,10
0,87 ± 0,11
1,08 ± 0,11
Abb. 1: Die LCModel-Auswertung mit Standard-Parametern (links) und
mit optimierten Parametern (rechts).
den Modelllösungen wurden T1rho-Zeiten in Abhängigkeit von den
genannten Parametern und der Spinlock-Feldstärke gemessen. Für
Kreatin wurde der theoretisch zu erwartende Signalverlauf beobachtet,
das heißt die lineare Abhängigkeit von R1rho = 1/T1rho von der
Konzentration, die exponentielle Abhängigkeit vom pH und die Lorentzförmige Abhängigkeit als Funktion von B1. Als Referenz ohne
chemischen Austausch wurde mit Kontrastmittel versetztes Wasser
gemessen, wobei sich der Theorie entsprechende Werte ergaben. Hier
ist T1rho = T2 unabhängig von der Spinlock-Feldstärke.
Es konnte eine T1rho-Abhängigkeit von der ChondroitinsulfatKonzentration beobachtet werden, was die Bewertung von Knorpel mit
T1rho rechtfertigt. Eine Reduktion der Glykosaminoglykane gilt als
frühes Zeichen für Knorpeldegeneration. Exemplarisch wurden Bilder
eines gesunden Knies aufgenommen und die T1rho-Zeiten bestimmt.
Auf diesen Bildern wurde der Knorpel mit gutem Kontrast dargestellt,
Knorpelgewebe zeigte die erwartete exponentielle Abnahme des Signals
als Funktion der Dauer des Spinlock-Zustands.
Planungen sind derzeit darauf ausgerichtet, Anwendungen für diese
Untersuchungstechnik zu erschließen.
23.5
1H contrast mechanism via Parahydrogen Self Refocussing
1,2
2
2
1
J. F. Dechent , L. Buljubasich , H. W. Spiess , L. M. Schreiber , K.
2
Münnemann ;
1
Universitätsmedizin der Johannes Gutenberg-Universität, Mainz,
2
Germany, Max Planck Institut für Polymerforschung, Mainz, Germany.
23.4
Untersuchung des Protonenaustauschs zwischen Metaboliten und
Wasser mittels Spinlock-Bildgebung
T. Rentrop, B. Schmitt, P. Bachert;
DKFZ/Medizinische Physik in der Radiologie, Heidelberg, Germany.
NMR-Methoden, die chemische Austauschprozesse abbilden, liefern in
vivo über morphologische Aussagen hinaus Informationen über kleine
Metaboliten im Gewebe. Es gibt verschiedene Techniken, mit denen
Aussagen über den Austausch von Protonen (1H) zwischen freien
Wassermolekülen und darin gelösten Stoffen gewonnen werden können,
z. B. CEST (Chemical Exchange Saturation Transfer) oder T1rho Bildgebung.
Als
T1rho
(T1-Relaxationszeit
im
rotierenden
Koordinatensystem) wird die Zeitkonstante der Signalabnahme während
eines Spinlock-Experiments bezeichnet. Der Spinlock eines
Spinsystems wird erzeugt, indem nach Anregung (90°-Puls) das B1-Feld
durch
eine
90°-Phasenverschiebung
parallel
zur
Transversalmagnetisierung eingestellt wird. Da Spinlock nur auf ein
Ensemble von Protonen mit der Resonanzfrequenz des rotierenden
Koordinatensystems (d.h. auf die Protonen des freien Wassers) wirksam
ist, gilt für Protonen mit abweichenden Resonanzfrequenzen (aufgrund
der chemischen Verschiebung) die Spinlock-Bedingung nicht. Mit dem
Bindungspartner der Protonen ändert sich auch ihre Resonanzfrequenz,
das heißt, durch chemischen Austausch verlassen Protonen den
Spinlock-Zustand. Dadurch wird der Magnetisierungsvektor der freien
Wassermoleküle beeinflusst, der zur Bildgebung verwendet wird. Weil
der chemische Austausch von pH-Wert, Temperatur und Konzentration
der beteiligten Stoffe abhängt, sind auch Rückschlüsse auf
physiologische Parameter möglich. Anwendungen sind unter anderem
die Bewertung von Knorpel, Früherkennung von Demenzerkrankungen
und die Diagnostik von Tumoren
Unter der Annahme eines Zwei-Pool-Modells, beschrieben durch die
Bloch-McConnell-Gleichungen, lässt sich ein analytischer Ausdruck für
die T1rho-Relaxationszeit herleiten [Trott, O.; Palmer, A.: J. Magn.
Reson., 154, 157, 2002]. Relevant sind Parameter wie die Frequenz des
Spinlock-Pulses und seine B1-Amplitude, sowie die Austauschrate
zwischen den beiden Pools, deren Resonanzfrequenzen und
Konzentrationen. Das Ziel dieser Studie war, unter kontrollierten
Bedingungen den analytischen Ausdruck zur Berechnung der T1rho-Zeit
zu überprüfen.
Die Experimente wurden an einem 3-T-Ganzkörper-Tomographen
(Magnetom Trio; Siemens, Erlangen) durchgeführt. Mit Kreatin und
Chondroitinsulfat
wurden
wässrige
Lösungen
verschiedener
Konzentrationen und pH-Werte angesetzt. Die Spinlock-Präparation
erfolgte mit zwei phaseninvertierten Spinlock-Pulsen, anschließend
wurde mit einer Turbo-FLASH-Sequenz Bildgebung durchgeführt. An
Introduction: Locating tiny amounts of interesting molecules within a
large number of other molecules is a major challenge in molecular
imaging. In magnetic resonance imaging (MRI) their signals are usually
concealed by the large proton background signal of the body.
Hyperpolarization can overcome this issue by increasing the signals up
1
to five orders of magnitude. For the most widely used MRI nucleus H,
however, this strategy is limited. The enormous number of thermally
polarized protons in the body screens the small amount of
hyperpolarized ones. The presetned approach makes use of different
1
temporal evolution of the H-antiphase signal of Parahydrogen Induced
Polarization (PHIP)[Natterer&Bargon, Prog.Nucl.Magn.Reson.Spectrosc
1
(1997)] compared to that of the thermal signal of the H-background. By
choosing an optimal echo time for detection of the PHIP antiphase
signals this new contrast can be simply implemented in any MRI pulse
sequence.
1
Experiments: A typical sample tube for the H-imaging experiments
contained: 500mg 1-hexyne and 10mg hydrogenation catalyst dissolved
in 2600mg of acetone-d6. After pressurizing the tube with 3.5bar of
enriched p-H2 outside the tomograph stray field it was subsequently
moved into the magnetic field and shaken, thus starting the
parahydrogenation reaction. After placing the NMR sample tube inside
1
the phantom the H-MRI experiments were performed (1.5-Tesla
Magnetom Sonata, SiemensMedical).
Results & Discussion: Figure 2 shows that the intensities of the
thermally and hyperpolarized regions of the images at different echo
times follow the temporal evolution of the corresponding FIDs. A clear
determination of the two areas was achieved by signal intensity. In a
subtraction image of echo times 15.8ms and 10.0ms (Figure 3) a
separation can be accomplished by signal sign. This method allows for a
clear partition even when T2* is equal.
Conclusion: In conclusion, a novel 1H-MRI contrast (ParaHydrogen
Antiphase Self Refocussing, PHASER) was developed, which allows for
selective detection of a small number of hyperpolarized protons with an
antiphase NMR/MRI signal in the presence of a large number of
thermally polarized protons. The contrast arises from the different time
evolution of the antiphase proton signal compared to the thermal proton
signal. PHASER can be used with all commonly applied imaging
sequences, by choosing optimal echo times for the antiphase signal.
Figures:
Figure 1: Left: 3D-scheme of phantom used for MRI experiments.
Center tube is filled with PHIP substance (orange), outer tube contains
water (blue). Right: FIDs originating from the whole phantom. The blue
signal originates from thermally polarized water and thermally polarized
69
PHIP substance. The red signal is generated by thermally polarized
water and hyperpolarized PHIP substance.
1
Figure 2: H-MR-images acquired with different echo times overlaid on
thermally and hyperpolarized FIDs (gradient echo sequence, flipangle:
10°, repetitiontime: 45ms, bandwidth: 600Hz, resolution: 0.7mm/pixel
and total acquisition time: 3.96s.
Figure 3: Subtraction image (echo times 15.8-10.0 ms) allowing for
22
separation of area with thermally polarized protons 6.691·10
22
protons/cm³ (blue) and area with hyperpolarized protons 0.001·10
protons/cm³ (red) by sign. Hyperpolarized signals appear positive due to
signal rise from 10.0ms to 15.8ms, thermal ones negative due to T2*
relaxation.
23.6
First MRI of Micro-Fluid Jets with In-bore DNP of 1H at 1.5 T
1
2,1
2
1
M. Terekhov , J. Krummenacker , V. Denysenkov , K. Gerz , T. F.
2
1
Prisner , L. M. Schreiber ;
1
Johannes Gutenberg University Medical Center Mainz, Mainz,
2
Germany, Goethe University Frankfurt,Institute of Physical and
Theoretical Chemistry and Center of Biomolecular Magnetic Resonance,
Frankfurt-am-Main, Germany.
Motivation: Magnetic Resonance Imaging (MRI) is one of the most
powerful techniques of non-invasive medical diagnostics. The physical
sensitivity of the MR-images being the key issue of providing clinically
relevant information is generally inferior in comparison with other
imaging methods (e.g. PET). One of the approaches with great potential
of improvement of the sensitivity and contrast of MRI is
hyperpolarization, i.e. creating a nuclear polarization larger than in
Boltzmann equilibrium. DNP is a technique, in which hyperpolarization is
achieved by microwave irradiation of electron spins in radicals, which are
coupled to the imaged nuclear spins. Due to significant difference of
electron and nuclear magnetic moments the increasing of the NMR
signal by two orders of magnitude is possible. Typically, DNP is
achieved in an external polarizer, in the solid-state at low temperatures,
with subsequent melting and shuttling the imaging agent into MRscanner. Being optimal for signal enhancements, the requirement to
shuttle practically prohibits the use nuclei with short T1 relaxation times,
1
like H. Additionally, hyperpolarization achieved is scaled down by the
factor between the polarizer and the imaging field. To circumvent these
1
we use liquid-state “Overhauser DNP” at 1.5 T for H nuclei that allows
placing the polarizer core inside the MRI magnet very close to the
imaging objects and the delivery of hyperpolarized (HP-) agent in
continuous flow mode.
Materials and methods: The microwave source for DNP is a
synthesizer tunable from 40 to 45 GHz. The energy is transferred to the
brass resonator (hollow-bore cylinder, ID=11 mm) inside scanner
magnet by a waveguide. The hyperpolarized agent in the resonator
streams through a ID=0.4mm quartz capillary. The flow is achieved
using injection pump. The resonator outlet capillary has ID=0.15 mm.
The 0.4 mm Plexiglas flat-cell is used as a phantom. The 2D-cell
excludes partial volume effect and allows estimation the DNP signal
70
enhancement with intrinsic reference of thermally polarized sample. The
1
H MR-images were detected using 1.5T Sonata MR-Scanner (Siemens,
Erlangen, Germany) using a 20mm loop coil. Sample (24 mmol/l
TEMPOL solution) was streamed with flow rate of 12-30 ml/hours. SpinEcho and Gradient-Echo sequences have been tested.
Results and Conclusion: Fig 1 and 2 shows the jet of HP-sample from
the outlet capillary of resonator into the flat cell filled with sample at
thermal polarization. While traveling through the cell the HP-sample
creates a steady-state signal intensity distribution. Because of the
negative enhancement of the NMR signal by DNP, it passes through
zero intensity, creating a dark region before it reaches thermal
polarization. These results demonstrate the ability to create a continuous
flow of a hyperpolarized liquid sample directly in the 1.5 T field and to
obtain MRI of micro-fluid jets in real time. The limiting factor of the setup
is the amount of HP-sample produced (few microliters/second). A
manifest improvement step would be to enlarge the resonator cavity and
sample flow speed. However, maintaining of HP buildup time would
require larger microwave power.
Session 24: Biochemische und
molekulare Informationen im MRSignal: X-Kerne und spezielle MRIAnwendungen
24.1
Flussmessung fluorinierter Kontrastgase mittels 19F-MRT unter
Hochfrequenzbeatmung
J. Friedrich, J. Rivoire, M. Terekhov, L. M. Schreiber;
Universitätsmedizin der Johannes Gutenberg-Universität, Mainz,
Germany.
Einleitung: Die Hochfrequenzbeatmung (HFOV: High Frequency
Oscillatory Ventilation) ist eine protektive Beatmungsmethode, die vor
allem bei Patienten mit ARDS (engl.: Acute Respiratory Distress
Syndrome) angewendet wird. Während der HFOV werden kleine
Tidalvolumina mit Beatmungsfrequenzen zwischen 5 - 12 Hz appliziert,
um eine ventilationsbedingte Lungenschädigung zu vermeiden. Um die
an der HFOV beteiligten Gastransportmechanismen untersuchen zu
können, wurde die Bewegung fluorinierter Kontrastgase während HFOV
mittels 19F-Gas-MRT untersucht.
Material und Methoden: Sämtliche Messungen wurden an einem 1,5
Tesla Tomographen (Magnetom Sonata, Siemens Erlangen)
durchgeführt. Heptafluoropropan (C3F7H) und Oktafluorozyklobutan
(C4F8) wurden als Kontrastgase eingesetzt. Ihre transversalen
Relaxationszeiten im Bereich von 15 - 20 ms sind lang genug, um eine
Geschwindigkeitsmessung mittels MRT durchführen zu können. Ein 1,5
m langes, gerades Plexiglasrohr mit einem quasi ovalen Querschnitt und
einem Durchmesser ähnlich der menschlichen Trachea sowie ein
symmetrisches Bifurkationsmodell aus Plexiglas dienten als
Messphantome für die Experimente. Zur Bestimmung der
Geschwindigkeiten innerhalb der Phantome wurde eine gespoilte
Gradientenecho-Sequenz verwendet. Unter konstantem Fluss wurden
zunächst für drei verschiedene Volumenströme (40, 30 und 20 L/min)
die Geschwindigkeitsprofile des Gases C3F7H im geraden Rohr
ermittelt. In einer weiteren Messung unter konstantem Fluss wurde die
Geschwindigkeitsverteilung in der Bifurkation in Frequenz- sowie in
Phasenkodierrichtung
gemessen.
Zur
Aufnahme
der
Geschwindigkeitsprofile unter HFOV wurde das MR-Gerät durch den
Ventilator getriggert. Es wurden zwei Messungen bei 7 und 10 Hz mit
jeweils 28 Geschwindigkeitskodierschritten (14 Referenzbilder + 14
Geschwindigkeits-kodierte Bilder) durchgeführt. Diese zwei Messungen
wurden mit einer Projektionsmethode, bei der nur die Phasenlinie im
Zentrum des k-Raums aufgenommen wurde, mit hoher Zeitauflösung
wiederholt.
Ergebnisse: Die Flussprofile, die sich unter konstantem Fluss im
geraden Rohr entwickelten, zeigten turbulentes Verhalten (siehe Abb. 1).
In der Bifurkation konnten die Geschwindigkeitsmessungen in Phasenund Frequenzkodierrichtung so kombiniert werden, dass das
Geschwindigkeitsvektorfeld einer Ebene über die gesamte Bifurkation
hinweg ermittelt werden konnte. Unter HFOV konnten erste, über 5 Pixel
gemittelte Geschwindigkeitsprofile für 7 und 10 Hz ermittelt werden. Die
Projektionsmethode erlaubte hier eine deutlich höhere Anzahl an
Mittelungen bei dennoch geringerer Gesamtmesszeit.
Diskussion: Für alle drei Volumenströme stimmen die gemessenen
Profile gut mit den theoretischen Profilen nach dem 1/7-Potenzgesetz
[H. Oertel, M. Böhle; Vieweg; 2004] überein und beweisen damit die
Umsetzbarkeit von Flussmessungen mit fluorinierten Gasen mittels
MRT. Unter HFOV zeigten die gemessenen Geschwindigkeiten eine
sehr große Schwankung, die sich auf das geringe Signal-Zu-RauschVerhältnis (SNR) zurückführen lässt. Die Projektionsmessung
ermöglichte hier eine größere Anzahl an Mittelungen. Dies verbesserte
das SNR und damit den Fehler in der Geschwindigkeitsbestimmung
deutlich ohne die Messzeit zu verlängern. Nachteil ist hier, dass es sich
um in Phasenkodierrichtung gemittelte Geschwindigkeiten handelt und
keine Rückschlüsse auf die Gestalt des Profils gezogen werden können.
Dennoch erlaubt diese Methode Rückschlüsse auf die Weiterleitung der
Druckwelle und mögliche Änderungen der Beatmungsfrequenz im
Phantom.
24.2
Produktion von hyperpolarisiertem 129Xe durch optisches
Austauschpumpen
1
1
2
1
3
M. Schnurr , F. Borgosano , G. Antweiler , M. Berger , D. Höpfel , P.
1
Bachert ;
1
Deutsches Krebsforschungszentrum, Abt. Medizinische Physik in der
2
Radiologie, Heidelberg, Germany, Universitätsklinikum Schleswig3
Holstein, Lübeck, Germany, Hochschule Karlsruhe für Technik und
Wirtschaft, Karlsruhe, Germany.
129
Hyperpolarisiertes Xenon ( Xe) wird als signalstarker Tracer in der MRBildgebung und NMR-Spektroskopie eingesetzt. Im Kleintierexperiment
kann zum Beispiel das durch Spin Exchange Optical Pumping (Rb - Xe)
hyperpolarisierte und vom Rubidium (Rb) gereinigte Xe-Gas appliziert
werden, sodass Lunge und Atemwege im MR-Tomograph abgebildet
werden können. Die Vorgänge beim Erzeugen von hyperpolarisiertem
Xe-Gas müssen genau verstanden werden, um einen hohen Grad an
Hyperpolarisation zu erhalten.
Wir benutzen einen von Stephan Appelt (FZ Jülich) gebauten Prototyp
eines Xe-Polarisators. Mit dieser Anlage wird durch Heizen Rb-Dampf
erzeugt und die Rb-Atome werden durch rechtszirkular polarisiertes
Laserlicht (cw-Leistung: 60 W) optisch in einen metastabilen Zustand
gepumpt. Die angeregten Rb-Atome übertragen ihre Elektronenspinpolarisation durch Stöße auf das Kernspinsystem der Xe-Atome. Der
Grad der Hyperpolarisation wurde in einem 1.5-T-Ganzkörpertomographen (Magnetom Avanto; Siemens, Erlangen) mit einer am
DKFZ gebauten Volumenspule für Xe (f0 = 17,615 MHz, 8 cm Durchmesser) bestimmt.
Nach Installation des Geräts wurden umfassende Umbauten, darunter
eine automatisierte Ansteuerung der Anlage, sowie Sicherheitstests
durchgeführt. In den anschließenden Experimenten wurde der
Zusammenhang des Polarisationsgrades von Xe mit den
makroskopischen thermodynamischen Größen Temperatur (60 °C - 200
°C) und Druck (2 atm - 7 atm) sowie der Flussrate (6 l/h - 30 l/h) des
Gases in Messreihen überprüft und optimiert. Dabei konnte der Grad der
Hyperpolarisation von zuvor PXe = 0,01 % (relativ zu thermisch
polarisiertem Xe) um zwei Größenordnungen auf derzeit PXe = 1,5 %
1
erhöht werden. Thermisch polarisierte Protonen ( H) in Wasser im
menschlichen Körper haben im Vergleich hierzu eine sehr geringe
-6
Polarisation von nur ca. 10 bei B0 = 1.5 T und T = 310 K.
Wir konnten experimentell zeigen, dass die Hyperpolarisation ab einer
bestimmten Temperatur aufgrund der ansteigenden Rb-Dichte
exponentiell abnimmt, sich mit zunehmendem Druck verringert und auch
von der Flußrate abhängt, in Übereinstimmung mit der Theorie.
Desweiteren wurde der direkte Zusammenhang der Laserabsorption der
Rb-Atome mit der Hyperpolarisation des Xenons, der Laser-HeatingEffekt und die Temperaturabhängigkeit der chemischen Verschiebung
gemessen.
Mit diesen Kenntnissen und Optimierungen des Systems sind nun die
Voraussetzungen
geschaffen
für
Kleintierexperimente
mit
hyperpolarisiertem Xe zur Untersuchung der Ventilation der Lunge, der
Dispositionskinetik von Xe im Organismus und der chemischen
Verschiebung von Xe-Resonanzen in vivo.
24.3
Free vs. Forced: model-free characterization of 3He MRI dynamic
lung ventilation measurements in forced inspiration and free-breath
administration mode
1
2
1
1
1
1
M. Terekhov , M. Gueldner , J. Rivoire , U. Wolf , K. Gast , J. Friedrich ,
2
1
S. Karpuk , L. M. Schreiber ;
1
Johannes Gutenberg University Medical Center Mainz, Mainz,
2
Germany, Johannes Gutenberg University, Intsitute of Physics, Mainz,
Germany.
3
Motivation: Dynamic ventilation (DV) of lung measured with He MRI is
an efficient tool to study the intrapulmonary gas inflow processes. The
common approach to data analysis is using a model function to fit the
signal-time curve in region of interest. The obtained non-linear fit
parameters (rise-times and mean slope) are ambiguous and (more
important) strongly dependent on the “tracheal input” (TI) determined by
the applied bolus shape-volume profile. We performed a comparison of
3
two ways of He administration which leads to extremely different
shapes of bolus input: short bolus (SB) delivered by applicator unit (AU)
in free breathing mode and 2) forced inspiration from a Tedlar bag (TB)
via a thin high resistance tube resulting in a prolonged bolus (PB)
duration
3
To analyze the He signal-time dependence we propose: 1) the MRsignal in lung parenchyma is linearly proportional to gas volume flow
through trachea and 2) the transport of gas in parenchyma is diffusive. In
this case the signal could be described as S(t+dt)=S(t)+Aout·(Si(t) -Sout(t))
· dt. Here, Aout denotes the “regional transport” which characterizes the
3
rate of He delivery in ROI. This equation can be solved in terms of
71
linear transfer function (LTF) which transforms the input signal Si(t) into
regional output Sout(t). The transfer function will be fully determined by
-1 -1
-1 -1
the value Aout as TF(z)=Aout z / (1-(1-Aout )z . Thus, finding the TF, the
rate of the regional gas delivery could be characterized by the single
parameter Aout without using any artificial model functions.
Materials and method: All measurements were performed using a
broadband MRI system (Sonata, Siemens, Erlangen) with a double tune
3
19
He/ F birdcage resonator (Rapid Biomedical, Germany). Mixture
3
200:300ml of He :N2 was administered in TB and AU mode (2
repetitions,
n=10
volunteers).
The
SGRE
sequence,
0
TE=0.9/TR=2.2ms/FA=2 , matrix=128x64, FOV=400mm provides
temporal resolution of 7 fps. The input signal intensity Si was determined
in ROI on the top of the trachea part where the time-signal bolus profile
measured by MRI is close to the volumetric data provided by AU. The
coefficient Aout was searched by “golden section” minimization of the
standard deviation between transformed input and actually measured
signals Sout(t).
Results and Discussion: The results show that the LTF-approach can
3
be applied to characterize data of DV with He-MRI. The discrepancy
between application modes in terms of LTF shows that “forced” TBapplication leads to strong changes of gas transport in parenchyma in
3
comparison with “free-breath” (AU). The kinetic of delivered He amount
could not be described by first order differential equation, probably
because the fine tube and high pressure gradient required to overcome
the resistance leading to higher velocity of gas in trachea and convective
mechanism has stronger effect in parenchyma in comparison with non“
resistive AU-application. Therefore the higher order derivations of input
function” should be accounted for to build the appropriate model
difference equation and regional transfer function.
Probandenmessung bestimmt wurden. Der zeitliche Verlauf des
flächengemittelten Massenanteils des Kontrastmittels wurde auf
mehreren Querschnittsflächen zwischen Einlass und Auslass bestimmt
und mithilfe dieser Kurven die Varianz der VTF entlang des Gefäßes
bestimmt.
Ergebnisse: Die Ergebnisse zeigen, dass der Kontrastmittelbolus unter
Ruhebedingungen stärker dispergiert ist als unter Stressbedingungen
(Abb. 1). Die Varianz am Gefäßauslass beträgt unter Stress bei doppelt
so großer mittlerer Einlassgeschwindigkeit nur etwa ein Viertel der
Varianz unter Ruhe. Die Variation der Herzfrequenz auf 120/min
resultiert in einer geringen relativen Abweichung der Varianzwerte von
weniger als 2% für die Ruhe- und 1% für die Stressbedingungen. Die
durchgeführten Veränderungen der Systolen-Diastolen-Dauer führen
ebenso nur zu einer relativen Abweichung von weniger als 1%.
24.4
Simulation der Kontrastmitteldispersion in der myokardialen MRPerfusionsmessung: Einfluss von physiologischen Herzparametern
D. Graafen, J. Hamer, R. Schmidt, S. Weber, L. M. Schreiber;
Universitätsmedizin der Johannes Gutenberg-Universität, Mainz,
Germany.
Zielsetzung: Zur Quantifizierung des myokardialen Blutflusses (MBF)
wird neben der Signal-Zeit-Kurve im Myokard eine arterielle
Inputfunktion (AIF) benötigt, die in der Regel aus dem Blutsignal im
linken Ventrikel (LV) abgeschätzt wird. Die Quantifizierung der Perfusion
erfolgt durch ein pharmakokinetisches Modell wie MMID4 (NSR,
Washington). Der Kontrastmittelbolus kann auf dem Weg zwischen dem
LV und dem myokardialen Gewebe aufgrund z.B. des Strömungsprofils
und Effekten an Stenosen dispergieren. Die Dispersion kann
mathematisch durch die Faltung der linksventrikulären AIF mit einer
vaskulären Transportfunktion (VTF) beschrieben werden, deren Varianz
den Grad der Dispersion wiedergibt. Dispersion führt zu einer
systematischen Unterschätzung des MBF. Ziel dieser Arbeit war die
Untersuchung
des
Einflusses
verschiedener
Herzparameter
(Herzfrequenz, Systolen- zu Diastolendauer) auf die Bolusdispersion
mithilfe numerischer Strömungssimulationen (CFD).
Material und Methoden: Die Simulationen wurden an einem
vereinfachten, zylinderförmigen Koronargefäß (L=10cm, D=3mm) mit
physiologischen pulsatilen Strömungen durchgeführt. Die Simulationen
wurden für den myokardialen Fluss unter Ruhebedingungen (Mittlere
Geschwindigkeit: 0,25m/s; Herzfrequenz 60/min) und durch Skalierung
der Amplitude und der Frequenz ebenso unter Stressbedingungen
(0,5m/s; HF: 66/min) durchgeführt. Um den Einfluss der Herzfrequenz
auf die Dispersion zu bestimmen, wurden die Pulsprofile (Ruhe und
Stress) zusätzlich auf eine Frequenz von 120/min zeitlich skaliert. Die
Variation der Systolen- zu Diastolendauer wurde am Ruheprofil durch
Streckung der Systolendauer um den Faktor 0,5 und 1,5 unter
Konstanthaltung der Herzfrequenz und der mittleren Geschwindigkeit
realisiert. Die Injektion des Kontrastmittels wurde mithilfe einer GammaVariate-Funktion beschrieben, deren Parameter aus den Daten einer
72
Abbildung 1. Einfluss der mittleren Einlassgeschwindigkeit und der
Herzfrequenz. Die mittlere Grafik zeigt einen Überblick über die
Varianzentwicklung entlang des Gefäßes unter Ruhe- und
Stressbedingungen. Die obere und untere Grafik zeigen jeweils
Vergrößerung des Varianzverlaufs am Ende des Gefäßes.
Diskussion: Die Dispersion des KM-Bolus wird hauptsächlich durch die
mittlere Einlassgeschwindigkeit beeinflusst. Weitere Herzparameter, wie
die Herzfrequenz und die Systolen- zu Diastolendauer, scheinen die
Dispersion im physiologischen Bereich nur gering zu beeinflussen. Die
Simulationen wurden an vereinfachten Gefäßen durchgeführt. Zur
genaueren Bestimmung der Dispersion sind weiterführende
Simulationen an detaillierten, physiologischen Koronargefäßmodellen
notwendig. Eine Abschätzung des Effekts war jedoch im Rahmen der
Arbeit möglich. Insbesondere konnte gezeigt werden, dass für zukünftige
Simulationen an physiologischen Koronargefäßmodellen die zugehörige
Messung von detaillierten Pulsprofilen nicht notwendig zu sein scheint,
da sie nur einen geringen Einfluss auf die Dispersion haben.
24.5
Anisotropic phantom measurements for quantitative use of
diffusion tensor imaging in clinical practice
J. Berberat, S. Rogers, L. Boxheimer, G. Lutters, L. Remonda;
Kantonsspital Aarau, Aarau, Switzerland.
Introduction: Diffusion weighted MRI applications are increasingly used
in clinical practice, including neuronavigation or novel radiation therapy
planning for brain tumours. Therefore good quality assurance (QA) is
important to avoid clinical errors. Diffusion tensor imaging (DTI)
parameters are dependent on imaging data quality as well as the
tracking algorithm and its predefined parameters. A hardware phantom
containing fibers crossing at a sub-voxel level was used for the QA [1].
Fractional anistropy (FA) analysis was performed, and the geometrical
resolution was verified with this phantom. We also compared two
analytical programs to evaluate the programs for implementation into
clinical practice.
Material and Methods: Data acquisition (EPI DTI: voxel size of 2x2x2,
matrix size 128x128, 63 slices, TE=99ms, TR=7700ms, b-factor 1000
2
s/mm , 21 diffusion-encoding directions, 3 signal averages followed with
T1 VIBE sequence: fatsat., scan duration 3 min, TR=6300ms,
o
TE=2380ms, matrix 256x256, flip angle 12 , slice thickness 1.0mm, 192
slices) was performed on Siemens 1.5T Avanto MRI-scanner with an
eight channel head array coil at room temperature. We compared two
analytical programs (Neuro-3D: Siemens, Erlangen, Germany) and
BrainVoyager QX v2.1 (BrainInnovationBV: Maastricht, The
Netherlands) to evaluate the programs for implementation into clinical
practice.
Results: FA results were very reproducible within each program (Fig.
1A-B). However, significant differences in FA values were found when
comparing the results between the two software programs (Fig. C).
Geometrical resolution of the anatomical dataset was satisfactory.
Conclusions: Diffusion tensor imaging can be used in highly
quantitative
modalities,
i.e.
radiation
therapy
planning
or
neuronavigation, subject to accurate quality assurance. Phantom QA is
necessary before using DTI for neurosurgical procedures or radiation
therapy planning to identify the uncertainties associated with the
complex analysis of DTI data. It is important to remember that the results
are software-dependent and may vary between different software
products.
Figure 1. To test reproducibility of the results, the DTI scan was
repeated three times in two different orientations. Five ROIs were
chosen and fractional anisotropy (FA) values were determined. Results
are presented in one of the three measurement directions. (A) The FA
(Neuro-3D) and (B) FA (Brainvoyager) values are highly reproducible.
(C) Histogram analysis showing the variation between the results of the
two analytical software programs.
[1] Pullens et al. J Magn Reson Imaging 2010; 32:482-88
4
Radiology, Heidelberg, Germany, 4Department of Diagnostic
Radiology, University Medical Center Schleswig-Holstein, Kiel, Austria.
Introduction: In T1-weighted(T1w) MR-imaging fat is hyperintense due
to its short T1- relaxation time.Fat-suppression-techniques, based on the
fat/water chemical shift,can be used to extend the dynamic range of the
non-fatty tissue to differentiate between lipid and non-lipid tissue
components.Three choices of fat-suppression are commonly
available,i.e. Quick-FatSat (Q-FS) [1], Spectrally selective Adiabatic
Inversion Recovery (SPAIR-FS) [2] and Water-Excitation (WE-FS) [3].To
our knowledge,an evaluation of these fat-suppression-techniques has
not been presented so far for radial acquisitions with the k-spaceweighted image contrast (KWIC) view-sharing method [4].Therefore,we
performed a qualitative and semi-quantitative comparison of QFS,SPAIR-FS and WE-FS using in vitro and in vivo measurements at a
1.5-T clinical whole-body-system (Avanto, Siemens AG Healthcare
Sector, Erlangen, Germany) to guide further optimization of clinical
abdominal-MRI.
Methods: Imaging experiments were performed to demonstrate the
influence of the various fat-suppression techniques for the 3D-Cartesianvolume interpolated gradient-echo-sequence(VIBE) and the 3D-radialVIBE(rVIBE)-sequence with KWIC-view-sharing-reconstruction.In vitro:
For the phantom measurements,8 vials(height 10cm,calibre
2.8cm,volume 50mm³) were filled with isotonic sodium solution and
doped
with
different
Gd-DTPAconcentrations(Magnevist,Schering,Berlin,Germany) in a range of 010mM with one vial per dose.The vials were placed upright into a bowl
filled with lard. In vivo: Measurements of the abdomen were performed
in a healthy volunteer during free-breathing where written informed
consent was obtained prior to the examination(female,31years,60kg).
Both in-vitro and in-vivo measurements were performed using the
combination of a 12-channel-thorax and 24-channel-spine RF-coil-array
with following parameters:TR/TE=7.19/2.38ms,FA=10°;FOV=343x343
2
mm ,acquisition matrix=256x256;ST=5mm; slab thickness = 200mm;
images/slab=40; BW=850 Hz/pixel; TA/volume=0:59-2:15 Min. For the
rVIBE-sequence,the number of radial views was set to 400.The selected
TR was the smallest possible value for WE-FS,and the selected TE of
2.38ms was the smallest possible value to achieve fat suppression with
an opposed-phase condition.
24.6
The Influence of the various fat suppression techniques in radial
gradient echo T1w imaging with k-space weighted image contrast
(KWIC) for abdominal MRI
1
1
2
2
3
M. Salehi Ravesh , G. Bauman , K. T. Block , R. Grimm , J. Dinkel , M.
3
1
3
3,4
Puderbach , W. Semmler , H. Schlemmer , C. Hintze ;
1
German Cancer Research Center/Division of Medical Physics in
2
Radiology, Heidelberg, Germany, Siemens AG, Healthcare Sector,
3
Erlangen, Germany, German Cancer Research Center/Division of
Results: Figure 1 shows the relationship between the measured MRsignal,normalized to the signal in the vial without contrast agent,and
73
contrast agent(ca)-concentration of the dilution series.Independent of the
k-space sampling used (Cartesian or radial),the MR-signal increases first
with increasing ca-concentration and then from a certain caconcentration transits to a non-linear relation,and finally to a plateau.The
curves for VIBE and rVIBE of WE-FS differ by 10%,while for the other
techniques the difference is less than 1% of the relative signal-intensity
over the entire range of ca-concentration.Figure 2 shows eight equally
windowed MR-images of the liver from the volunteer study,which were
acquired with different k-space sampling using otherwise same
sequence parameters.The images in the upper row were acquired with
Cartesian k-space-sampling and the images in the bottom row with the
radial k-space-sampling.
Discussion: The in-vivo results indicate that the rVIBE-sequence during
free-breathing provides an excellent image quality without motion
artifacts compared to the conventional VIBE.Among the Cartesian
images,the image acquired with WE-FS(d) shows minimal motion
artifacts.However,the fat-suppression on this image is very
inhomogeneous compared to the corresponding image with radial kspace-sampling(h).The comparison of the images acquired with the
rVIBE-sequence(e-h) leads to the conclusion that,first,the fat
suppression is in abdominal-MRI necessary to achieve a high contrast
between lesion and surrounding tissue.Second,the Q-FS provides better
efficacy and homogeneity of fat saturation compared to SPAIR-FS and
WE-FS,which is in agreement with the in-vitro results.Q-FS or SPAIR-FS
allow for shorter total acquisition-times due to the reduced TR-value
compared to WE-FS,which is beneficial in the clinical routine.
References: [1]Hatfield,E.etal.MagnetomFlash2008,2;
[2]Lauenstein,T.C.etal.JMRI2008,27:1448-1454 [3]
th
Sala,E.etal.Proc.11 Intl.Soc.Mag.Reson.Med.,2003,Ontario,Canad; [4]
Song,H.K.etal.MagnResonMed.2000Dec,44(6):825-32
24.7
Development of a T1rho-Pulse Sequence for MR-Imaging and MRMicroscopy on a Siemens Ultrahigh-Field Magnetic Resonance
Scanner
S. Berger, C. Horn, A. Berg;
Medical University of Vienna, Center for Biomedical Engineering and
Physics & MR-Center of Excellence, Vienna, Austria.
T1rho-weighted MR is a prospective approach to resolve structures, e.g.
healthy and pathologic tissues, which give only a poor contrast when
being investigated with conventional T1- and T2-weighted imaging.
Particularly, T1rho-weighted imaging is highly sensitive to processes
occurring at low frequencies (0.1 - 100 kHz), thus being directly
dependent on intrinsic biophysical and chemical properties of the
investigated tissues. The variation of the spin-locking (SL) amplitude b1
within the T1rho pulse sequence allows to interact with different
molecular and magnetic processes occurring at different time scales.
In the last years the benefits of T1rho-weighted MR for diagnosis were
identified in a variety of tissues. However, T1rho pulse sequences do not
belong to the standard pulse sequences of clinical applications and in
most cases are not available from the manufacturer. Clinical T1rho
applications are restricted to standard MR systems with e.g. 1.5 T and 3
T. Investigations using T1rho-weighted imaging with higher magnetic
fields are rare at all.
The aim of the presented work is to present the newly developed T1rho
pulse sequences for running on a Siemens ultrahigh-field (B = 7T) MR
scanner (IDEA-platform). The new sequences are also implemented on
a microimaging system for MR-microscopy allowing spatial resolutions
down to 32 µm. The sequence implementation features a user
controllable interface for artefact compensation of B0 and b1
inhomogeneities.
The pulse sequence, its variations for B0 and b1 inhomogeneity and first
evaluation results on a MR microimaging insert for reference gels are
presented.
The unique combination of T1rho-contrast, ultrahigh-field and
microscopic resolutions allows novel investigations ex vivo, in histology,
in polymer gel dosimetry, as well as on anorganic materials,e.g. various
implants and composites, and in solid state science. In principle the
sequences can be applied also in vivo but without microscopic resolution
and limitations due to SAR.
74
Session 25: Biomedizinische Technik I
25.3
Imaging method for quantification of pulmonary ventilation using
dorsal microphone grid and frequency analysis
1
2
1
1
3
B. Balzer , K. Sohrabi , M. Scholtes , V. Groß , U. Koehler ;
1
2
TH Mittelhessen, Giessen, Germany, ThoraTech GmbH, Wettenberg,
3
Germany, Uni-Klinik Marburg, Marburg, Germany.
Introduction: The aim was to analyze and to visualize the specific
pulmonary ventilation. Contrary to conventional static lung function
analyzes like scintigraphy, we tend to establish a novel imaging method
which allows visualizing dynamic pulmonary ventilation. Respiratory
sounds are generated by turbulent flow in bronchial tube and contain
frequencies from 75 Hz till 2000 Hz accumulating in low-frequency.
Methods: We used the new ThoraView device (ThoraTech GmbH,
Germany), which consists of a dorsal sound-sensor-grid, which were
placed on subject’s back. The ThoraView device also contains a
processing and recording unit.
Synchronous breathing flow was detected by a pneumotachograph and
recorded parallel for comparison. The measurement took 5 minutes for
each subject. Subsequently, the sensor position was marked (with
Adalat 5mg from Bayer) and we scanned the subject’s lung in MRI.
The evaluation algorithm which is based on a frequency analysis
transforms the recorded sound signals of each sensor into dynamic
ventilation and visualizes it in the particular location in front of the MRI
lung image. Flow-intensity was coded in color like ultrasonic evaluation
of blood-flow.
Results / Conclusion: Up to now, 20 of 40 subjects were measured in
this pilot study. We have achieved the visualization of specific lung
ventilation using evaluation of sound intensity. This new method is noninvasive and does not need any radiation, but delivers a qualitative and
quantitative evaluation of the particular pulmonary areas. Further
investigations are necessary to evaluate the ThoraView device in clinical
use.
25.4
Left ventricular assist devices in patients suffering heart failure
with normal ejection fraction: investigation of their potential use by
a computer simulation study
C. Wirrmann, F. Moscato, H. Schima;
Center for Medical Physics and Biomedical Engineering, Vienna, Austria.
Background: About half of the heart failure patients presenting
symptoms and signs of heart failure have a normal ejection fraction. This
condition has been defined as heart failure with normal ejection fraction
(HFNEF). While prevalence of HFNEF increased over a 15-year period,
the rate of death from this disorder remained unchanged with little, if
any, evidence of conventional heart failure therapies benefits. Although
mechanical assistance was used in HFNEF patients only in very few and
isolated cases, no systematic investigation of the potential benefits of
such a treatment was done. In this study the potential use of rotary blood
pumps as a treatment option for HFNEF patients was investigated by
means of hemodynamic computer simulations.
Materials and Methods: A numerical model reproducing the
hemodynamics of HFNEF patients at rest and during exercise was
developed using literature patient data. The numerical model of the
cardiovascular system was implemented in Matlab®-Simulink® and
comprised active atria and ventricles, systemic and pulmonary
circulations and autonomic feedback loops for proper modeling exercise
hemodynamic response. Values of heart rate (HR), end diastolic
pressure (EDP), systemic arterial pressure (SAP), left atrial pressure
(LAP), stroke volume (SV), as well as cardiac output (CO) were used to
compare the computer model against the literature data. A rotary blood
pump was added for left ventricular assistance to the model and the
hemodynamic effects at rest and during exercise of three different pump
speeds (2500, 3000 and 3500 rpm) were investigated.
Results: The computer simulation could well reproduce the significant
hemodynamic values of HFNEF patient within the standard deviations
provided from the literature data. At rest, a LVAD support of 3000 rpm
lead to a reduction of HR (-18,7%, mediated by the baroreflex), EDP (57,3%), LAP (-46,8%) and SV (-15,2%), and to an increase of CO
(+6,9%) and MAP (4,5%). Speed could not be further increased without
inducing ventricular suction. During exercise, maximal LVAD support of
3500 rpm lead to a reduction of HR (-14,3%, mediated by the
baroreflex), LAP (-50,4%) and EDP (-58%), and to an increase of CO
(+17,1%), SV(+1,3%) and MAP (+6,4%).
Conclusion: The simulation results show that a LVAD could resolve the
pathologic hemodynamics of heart failure with normal ejection fraction at
rest but foremost during physical activity thus additionally strongly
increasing the cardiovascular performance in HFNEF patients. For all
these reasons, LVADs could represent a viable option for the treatment
of this form of heart failure.
25.6
Simulation der Bild- und Dosisentstehung für eine quasimonochromatische laser-getriebene Röntgenquelle in der
Mammographie
1
25.5
Spectrum analyses of catheter signals based on ultrasound raw
data
I. Erbeck, A. Poelstra, H. Overhoff;
University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany.
Introduction: The success of a high dose rate (HDR) brachytherapy of
the breast depends strongly on the position of catheters. To determine
their location stereotactic mammography or even CT image volumes are
widely-used. While mammography can give only restricted insight into
the spatial relations, CT is a resource consuming modality and is
associated with ionizing radiation.
3-D ultrasound is a promising alternative for image based catheter
detection but suffers from poor image contrast.
In ultrasound images of a breast containing catheters, bright, straight
lines in different depths z visualize either catheter or tissue structures. Bmode image pixels relate to short time samples of focused receive raw
data (A-lines). Primary investigations had shown, that the threshold of
the postprocessed sample amplitude Ath and fixed lower and upper cut
off frequencies (fl, fu) of the sample’s bandpass-like Fourier spectrum are
significant parameters to distinguish between catheter and tissue pixels.
However, it seemed that depth dependent cut off frequencies could
optimize the segmentation result.
Hypothesizing that for small depths, the cut off frequencies decrease
with increasing depth, it is investigated the relation between the depth
and the frequency content with the help of a breast tissue model.
Methods: Via the Research Interface of a MyLab70 ultrasound system
(Esaote Europe B.V., Maastricht, The Netherlands), focused receive raw
data, i.e. A-lines, of 18 volumes of 7 catheters placed in different depths
in turkey breast were acquired. Focus and frequency settings were
varied so that for each catheter, data were recorded with optimal and
improper parameter settings. The data were analyzed and reconstructed
to images using MATLAB; each image has a size of NI × NJ and the gray
scale values g(i, j), with 1 ≤ i ≤ NI, 1 ≤ j ≤ NJ, in which z = i·Δz, Δz = c/fs, fs
= 50 MHz, c = 1540 m/s; the gray scale values represent post-processed
A-line samples.
For raw data samples whose corresponding pixels comply with g(i, j) ≥
Ath the Fourier spectrum was determined. The identified spectrum was
assigned to the depth z(i) of the raw data sample having the maximal
amplitude of all raw data samples used to calculate the respective
spectrum. For analyses of large numbers of images, mean values of
frequency amplitudes were regarded if several spectra had to be
assigned to one depth z.
As far as the uncertainty principle of time and frequency allows, the
relation between depth z and frequency amplitudes can be observed.
Results: Fig. 1 shows the depth dependent frequency content of 36
images containing 5 catheters. It can be observed that the occurrence of
high frequencies decreases with depth.
Whereas all catheter signals include frequencies around 4 MHz, low
positioned catheters also contain the first harmonic of around 8 MHz.
Conclusion: A classification of catheters on the basis of frequency
content can be optimized if cut off frequencies are related to the depth,
i.e. fl = fl(z), fu = fu(z). Especially regarding the base frequency in
combination with the first harmonic seems to be a promising approach.
2
1
2
B. Müller , H. Schlattl , F. Grüner , C. Hoeschen ;
1
Ludwig Maximilians Universität München, Garching, Germany,
2
Helmholtz Zentrum München, Neuherberg, Germany.
Um das Verhältnis aus der Bildqualität zu der erzeugten Strahlendosis in
der Mammographie zu verbessern, ist es notwendig neue
Röntgenquellen auf ihre Anwendbarkeit in diesem Gebiet hin zu
untersuchen, da es immer schwieriger wird die dort eingesetzten
Röntgenröhren weiter zu optimieren. Es wurde die Bild- und
Dosisentstehung in der Mammographie mit einer innerhalb des
Exzellenzclusters “Munich Center for Advanced Photonics” entwickelten
quasi-monochromatischen
Röntgenquelle
untersucht.
Diese
Röntgenquelle verwendet laser-beschleunigte Elektronen um in einem
Undulator, bestehend aus einer periodischen Anordnung von
Permanentmagneten, Synchrotronstrahlung zu erzeugen. Die dadurch
erzeugte Strahlung ist nahe zu monochromatisch und besitzt eine sehr
geringe Strahldivergenz. Die Simulation der Bildentstehung in der
Mammographie wurde mit dem Geant4 Monte Carlo Software-toolkit
durchgeführt,
unter
der
Verwendung
von
hochaufgelösten
Voxelmodellen der Brust, die aus CT-scans von anatomischen
Präparaten erzeugt wurden. Eine quantitative Analyse der Bildqualität
der dadurch erzeugten Mammographien und der berechneten Dosen
zeigt, dass es möglich ist, mit quasi-monochromatischen
Röntgenquellen die Dosis im Vergleich zur Mammographie mit
polychromatischen Röntgenröhren, erheblich zu reduzieren.
Fig.1
75
Session 26: Biomedizinische Technik II
26.01
Micromechanics of Lamellar Bone
stiffness alignment along the axial direction with a small average helical
winding around the osteon axis, (Figure 4). Thus, the experimental
results oppose the numerical outcomes of the twisted- and orthogonal
plywood pattern, but support the 5-sublayer- and the x-ray diffraction
based pattern.
A. G. Reisinger, D. H. Pahr, P. K. Zysset;
Technische Universität Wien/Institut für Leichtbau und
Strukturbiomechanik, Wien, Austria.
The hierarchical structure of bone tissue has been investigated
intensively in the last century. Whereas bone composition is described in
increasing detail, the microscopic mechanisms leading to the remarkable
macroscopic mechanical properties are still barely understood.
In this work, the hierarchical organization of lamellar bone, the most
abundant bone type in humans and many mammals, is reflected in a
multiscale material model that provides anisotropic elastic estimations
for the characteristic microscopic bone entities. In that way, a relation
between composition and morphology of bone's microstructural motives
to its macroscopic elastic behavior is established.
This work demonstrates that variations in composition and inherent
orientation lead to differences in the elastic behavior of lamellar bone on
higher length scales. The utilized numerical models allow for a
qualitative and quantitative prediction of bone tissue elastic constants.
The study is a step toward a deeper understanding of the
structure_mechanical function relationship of lamellar bone.
26.02
Visualisierung der Fähigkeiten von Prothesenhänden
First, the mineralized collagen fibril, the extrafibrillar matrix and the
subsequent fibril-array, are modeled using a multiscale mean-fieldmethod, (Figure 1). Fibrils contain collagen- type I molecules that are
periodically reinforced by mineral platelets. Fibrils are embedded in an
extra-fibrillar matrix that consists of a network of non-collagenous
proteins and mineral. This composite, the uniaxial fibril-array, is the basic
structure from which all higher hierarchical levels of lamellar bone are
built. The influence of mineral and collagen volume fractions, their spatial
distribution and elastic properties as well as the effects of porosity on the
fibril-array stiffness is investigated. Calculations show that tissue
mineralization and collagen stiffness are crucial parameters for
describing lamellar bone axial and transverse stiffness, whereas mineral
distribution and fibril volume fraction are less relevant, (Figure 2).
Second, the obtained elastic properties of the fibril array are used as an
input for a finite-element unit-cell model of the bone lamella, (Figure 1).
The fibril alignment in the lamella rotates according to a fibril orientation
pattern. Four known patterns were compared regarding the resulting
bone lamella anisotropy and stiffness. The widely known twisted
plywood and orthogonal plywood patterns lead to in-plane rather
isotropic elastic properties. Unsymmetrical patterns like the 5-sublayer
pattern, the x-ray diffraction based pattern lead to a privileged stiffness
direction that is inclined to the osteon axis, (Figure 3). In the cylindrical
setup of an osteon, in which the lamellae are circumferentially disposed,
this inclination-angle brings about a helical stiffness winding around the
haversian channel, (Figure 1).
Third, the numerically obtained anisotropic elastic properties of bone
lamellae were related to nanoindentation experiments on human
osteons. They were performed on three distinct planes on a single
osteon to assess the lamella inplane stiffness in multiple directions. All
investigated osteons appeared to be anisotropic with a preferred
76
T. Feix;
Otto Bock Healthcare Products GmbH, Wien, Austria.
In der Vergangenheit war das Ziel in der Entwicklung von neuen
Handprothesen die Erhöhung der Menschenähnlichkeit. Dazu wurden
immer mehr Gelenke und Aktuatoren hinzugefügt, sodass die Prothese
zu einem sehr komplexen System wurde. Die Komplexität wurde zum
Teil so hoch, dass die Funktionen nicht mehr richtig gesteuert wurden
und folglich ihr Potential nicht ausgeschöpft wurde. Aktuelle
Prothesensteuerungen erlauben eine zeitgleiche Bewegung von einem
Freiheitsgrad; die Bewegung von mehreren Freiheitsgraden muss
sequentiell abgearbeitet werden, was den Ablauf wesentlich
verlangsamt.
In letzter Zeit kam es zu einem Paradigmenwechsel. Das Ziel ist nun
Hände zu entwickeln, die wenige Freiheitsgrade besitzen, aber trotzdem
ein hohes Maß an Fingerfertigkeit erlauben. Die Anzahl der benötigten
Steuersignale soll gerade so hoch sein, dass auch wirklich das
komplette Bewegungsspektrum der Hand gesteuert werden kann.
Solche Hände sind einfacher zu entwerfen und billiger zu produzieren.
Zusätzlich können sie leichter und robuster gebaut werden, beides
wichtige Faktoren für die Akzeptanz bei Prothesenträgern.
Um eine menschliche Hand-Konfiguration zu definieren, bedarf es einer
Vielzahl von Parametern (z.B. Gelenkswinkelangaben). Die Hand ist
deshalb mathematisch schwer handhabbar, und viele Analysen werden
unmöglich. In dieser Arbeit wurde ein System geschaffen, welches
dieses Problem umgeht indem es die Bewegungen der Hand in einen
zweidimensionalen Raum projiziert. Dieser zweidimensionale Raum
kann sehr leicht visualisiert werden und ist leichter handhabbar. In
diesen Raum, der von der menschlichen Hand erzeugt wird, werden die
Bewegungen einer Prothesenhand projiziert. Das erlaubt einen direkten
und intuitiven Vergleich von Prothese und menschlicher Hand. Kann die
Prothesenhand große Bereiche der menschlichen Hand abdecken
bedeutet dies, dass diese Hand menschenähnlich ist und
dementsprechend einen hohen potentiellen Nutzen hat.
Die Abbildung zeigt die Projektion der Otto Bock Michelangelo Hand in
den Raum der menschlichen Hand. Die farbigen Trajektorien
entsprechen den Bewegungen der Prothese und der weiße Hintergrund
entspricht der menschlichen Hand. Die Michelangelo Hand bedeckt
2,8% dieser Fläche. Das mag zwar relativ gering erscheinen, aber
verglichen mit anderen Händen ist das ein guter Wert, vor allem im
Angesicht der wenigen Freiheitsgrade. Nichtsdestotrotz zeigt es auch,
dass zur menschlichen Hand noch immer eine enorme Differenz
besteht. Die vorgestellte Quantifizierung erlaubt es, den Unterschied zur
menschlichen Hand zu messen. Mit der Hilfe dieses Werkzeugs sollen
nicht nur existierende Hände bewertet werden, sondern es sollen auch
neue optimale kinematische Hand-Designs entwickelt werden. Diese
Analyse kann die Basis für eine neue Generation von Prothesenhänden
bilden, die wenige Freiheitsgrade aber trotzdem maximale Fähigkeiten
besitzt.
26.04
An application for learning and teaching extracellular stimulation of
axons
S. M. Danner, F. Rattay;
Institute for Analysis and Scientific Computing, Vienna University of
Technology, Vienna, Austria.
26.03
A new method to assess aortic valve opening during rotary blood
pump support
1,2
1,2
1,2,3
M. Granegger , F. Moscato , H. Schima ;
1
Medical University of Vienna, Center for Medical Physics and
2
Biomedical Engineering, Vienna, Austria, Ludwig-Boltzmann-Cluster for
3
Cardiovascular Research, Vienna, Austria, Medical University of
Vienna, Dept. of Cardiac Surgery, Vienna, Austria.
Introduction: During left ventricular support using rotary blood pumps
(RBPs) the biomechanics of the aortic valve (AV) is altered substantially.
This may lead to aortic stenosis (AS) and/or aortic insufficiency (AI).
Furthermore, if the AV remains closed during the whole heart cycle flow
stagnation in the aortic root may cause thrombogenesis, which can lead
to neurologic events. Ensuring frequent opening of the AV can improve
its condition and decrease the occurrence of thrombogenesis. The
assessment of the state of the aortic valve, open during partial support
and closed during full support, is currently performed using
echocardiography. Since the opening of the AV is highly influenced by
preload, afterload and contractility, a robust method is necessary to
determine the state of the AV even during exercise or for out of hospital
situations. Our hypothesis was that the shape of the systolic pump flow
signal provides information on the state of the AV: in case of partial
support the pump systolic flow signal presents a flat plateau, in case of
full support the systolic peak is sharper.
Material and Methods: First, an already validated numerical model of
the cardiovascular system including a RBP was employed to investigate
the flow signal under different conditions (heart rate, preload, afterload
and speed variations). About 5000 beats were analyzed, in 44% of the
beats the AV opened and in 56% the AV was always closed. In a next
step, animal experiments with a Micromed DeBakey pump were
analyzed retrospectively. Here, speed variations in 4 different animals
were analyzed with about 2000 beats (27% closed, 73% open). The flow
signal was first high-pass filtered and then the shape of the systolic
portion was measured, on a beat-to-beat basis, using skewness, kurtosis
and the crest factor. Finally, different classification algorithms (linear and
quadratic discrimination analysis as well as a nearest neighbor
classification algorithm) were employed to determine the state of the AV.
A k-fold cross validation was performed (k=10) to train and test the
different algorithms.
Results: In both the numerical model and the animal experiments the
classification algorithms could determine the state of the AV correctly in
at least >93% of the test datasets. Skewness, kurtosis and the crest
factor contributed similarly to the discrimination between the two states.
The nearest neighbor classifier performed best with a correct
classification rate of 95% (animal data) and 99% (numerical model).
Discussion and Conclusion: A non-invasive assessment of the AV
opening during RBP support enables monitoring the state of the AV
continuously. This would allow modifying the pump speed to obtain
occasional opening of the valve and decrease adverse events like AS, AI
and thromboembolic events. The proposed method employs the
measured pump flow signal for the discrimination purpose, but also an
estimated flow or pressure difference across the pump with sufficient
frequency content can be used.
Electrical stimulation of the nervous system plays a major role in today’s
medical research and practice. Muscles can be stimulated to avoid
disuse, impaired function can be improved by targeted stimulation of
certain nerves, and nervous system function can be researched.
To appropriately apply these techniques, it is essential to understand the
underlying mechanisms involved in the artificial activation of the central
and peripheral nervous system by electrical stimulation. Complex nerve
fiber models, using differential equation to describe the dynamics of ion
channels, exist that can be used to investigate the influence of the
applied electrical field on the neurons. These models can be applied to
calculate, e.g., excitation thresholds and action potential propagation.
Thus they offer the possibility to study the electrical stimulation of the
nervous system without complicated experiments.
In this work, the theory of neuron and axon models and the mode of their
artificial electrical activation are explained. An application is presented
(see figure) that allows student or people interested in the stimulation of
the nervous system to experiment with the activating function (Rattay,
1999) and two commonly used axon models, the McIntyre-RichardsonGrill (MRG; McIntyre et al., 2002) and the Chiu-Ritchie-Rogart-StaggSweeney (CRRSS; Chiu et al., 1979; Sweeney et al., 1987) model.
Different cases can be selected, i.e. variations of intracellular and
extracellular stimulation with point electrodes. Most parameters, i.e.
stimulation strength, pulse shape, distance of the electrode, etc., are
changeable by the user to investigate their effects. In combination with
the documentation the user should be able to understand the underlying
concepts and will get familiar with the computer simulation of electrically
stimulated nerve fibers and the differences between the models. The
application is designed to offer as much freedom to the user as possible,
in order to enable a learning by experimenting approach.
Chiu, S. Y., J. M. Ritchie, R. B. Rogart, and D. Stagg (1979). A
quantitative descritpion of membrane currents in rabbit myelinated
nerve. The Journal of Physiology 292(1), 149-166.
McIntyre, C. C., W. M. Grill, D. L. Sherman, and N. V. Thakor (2004).
Cel- lular effects of deep brain stimulation: model-based analysis of
activation and inhibition. Journal of Neurophysiology 91(4), 1457-69.
Rattay, F (1999). The basic mechanism for the electrical stimulation of
the nervous system. Neuroscience, 89(2), 335-346.
Sweeney, J. D., J. T. Mortimer, and D. Durand (1987). Modeling of
mammalian
myelinated
nerve
for
functional
neuromuscular
electrostimulation. Proceedings of the 97h Annual Conference IEEE
EMBS, 1577-1578.
77
26.05
Development of a Lab-on-a-Chip for Monitoring Rheumatoid
Arthritis Cells
1
2
3
1
26.06
Computational Modeling of Crouch Gait in Children with Cerebral
Palsy
1
1
2
1
3
V. Charwat , M. Joksch , B. Klösch , P. Ertl ;
1
AIT Austrian Institute of Technology GmbH / Health and Environment
2
Department / Nano Systems, Vienna, Austria, Siemens AG Austria /
3
Life Science Systems, Vienna, Austria, Ludwig Boltzmann Cluster for
Rheumatology and Balneology, Vienna, Austria.
R. Hainisch , Z. Ul-Karim , A. Kranzl , M. Gföhler , M. G. Pandy ;
1
University of Technology Vienna / Institute for Engineering Design and
2
Logistics Engineering, Vienna, Austria, Orthopaedic Hospital Speising /
3
Laboratory for Gait and Movement Analysis, Vienna, Austria, The
University of Melbourne, Melbourne, Australia.
Rheumatoid arthritis (RA) is an autoimmune disease characterized by
chronic inflammation of joint tissues, mainly the synovial membrane,
which often leads to disabling, painful and irreversible joint destruction if
left untreated. Although RA is not a typical age-related disease, its
relevance increases in our aging society, since no cure has been found
so far and patients usually need to be treated for many years. The high
prevalence of about 1% in the Austrian population adds to the need for
good diagnostic and therapeutic options.
The oldest form of treatment of rheumatic disorders is spa therapy
(sulphur, mud, mineral and pearl baths) and is still commonly practised
today. In many spas mineral water with high sulphur content, originating
from geothermal wells or springs is utilized. To date there is still a lack in
detailed scientific investigations of the benefits of H2S treatment. While it
is well known that H2S at high concentrations is clearly toxic, it is still not
clear whether and to what degree the concentration of sulfur applied in a
typical spa treatment (>1mg/kg water) is adequate to induce a protective
stress response without harming organisms/cells. H2S is a well known
gasotransmitter capable of causing rapid and transient cell responses.
Consequently, diagnostic tools capable of rapidly assessing cellular
dynamics are required. Here highly integrated microdevices (µTAS)
including Cell-on-a-Chip systems can provide the necessary technology
to allow for fast, portable and accurate measurements of complex
biological systems.
The presented research project is concerned with the development of a
bench-top sized Cell-on-a-Chip analytical platform for the study of RA
and spa therapy. Healthy and RA patient derived synovial fibroblast cells
are cultivated in microfluidic cell chips with integrated dielectric sensors
for impedance spectroscopy. Once a confluent cell layer has
established, sulphur releasing compounds are applied through external
syringe pumps and the cell responses are monitored. Mounted into the
platform, alternating current (AC) frequency sweeps are performed in the
range of 1kHz to 20MHz and impedance data of the cell layer is
continuously recorded. While most commonly used cell based assays
have a poor time resolution, the applied technology allows continuous
monitoring of cellular phenotype dynamics, without any need for
additional handling steps. Changes in the cell layer such as varying
adhesion, proliferation or biopolymer secretion influence its dielectric
properties, which allows us to non-invasively assess cell viability,
reproduction, and metabolic activity over long periods of time. Since data
from a large number of frequencies is continuously recorded, we acquire
large datasets for each experiment, that can be difficult to interpret.
Therefore we apply multivariate data analysis methods such as partial
least square (PLS) method, principal component analysis (PCA) and
neuronal networks to distinguish differences in healthy and diseased as
well as treated and untreated cell samples. Our results show that cell
experiments on the Cell-on-a-Chip station in combination with statistical
data analysis methods can successfully be performed to distinguish
between different cellular phenotypes and to monitor dynamic cell
responses with a good time resolution of less than 5 minutes.
Cerebral Palsy (CP) results from a static injury to the developing brain.
This type of injury to the central nervous system commonly results in
abnormal motor control with associated delay in onset of walking and an
abnormal gait pattern. Crouch gait is a common gait abnormality
associated with CP. An overall goal of our long-term research is to
develop and use subject specified 3-dimensional computational models
of the musculoskeletal system to better understand muscle function
during gait. The aim of the present study is to compare kinematics,
kinetics and EMG data of CP children with crouch gait with those of
aged-matched healthy control subjects. Gait experiments were
performed on 5 healthy children (7-11 yrs) and two CP children (10-12
yrs). We created musculoskeletal biomechanical models with 46
muscles and 23 degrees of freedom for the simulation platform
OpenSim. The model parameters were customized according to
individual anatomical data which was aquired via magnetic resonace
imaging (MRI) of all subjects. The coordinates of the muscles
attachment points, where extracted from a manual segmented MR-dataset. The parameters for the Hill-type muscle-model in particular
maximum isometric force, optimal muscle-fiber-length and tendon-slacklength where set according specially developed calculation algorithms.
Current results indicate that for crouched gait, the net extensor moment
exerted about the hip increases during early stance, which may be due
to an increase in the passive force exerted by the hamstrings. Increased
knee flexion during stance was accompanied by an increase in the net
extensor moment exerted about the knee in late stance. An increase in
ankle dorsiflexion was accompanied by an increase in the net
plantarflexion moment exerted about the ankle in the early stance and a
decrease in late stance. Data obtained from this study will be further
used as input to subject specified musculoskeletal models of the lower
limbs to evaluate individual leg-muscle forces during crouch gait in
children with CP.
78
26.07
Activation threshold and contraction dynamics of quadriceps
femoris heads measured with ultrasound imaging
L. Kneisz;
Medical University of Vienna, Vienna, Austria.
Submission for „ÖGBMT Förderpreis für den wissenschaftlichen
Nachwuchs - Diplomarbeit“
The assessment of muscle properties is important in the diagnosis of
neuromuscular diseases. Ultrasound imaging is a non-invasive
technology which can be used to analyze the structural and dynamical
behavior of muscle tissue. Muscle contractions are very short and
therefore fast data acquisition is required. The activation of the vastus
intermedius (VI) muscle and the superficial muscles rectus femoris (RF),
vastus lateralis (VL) and vastus medialis (VM) were examined.
The used clinical ultrasound device (Zonare Medical Systems Inc.,
Mountain View, CA, USA) has a time resolution of 5ms operating in Mmode. Two experiments have been performed to assess muscle
properties on seven healthy subjects (age: 22-32 years). The anterior
thigh muscles were activated with transcutaneous neuromuscular
electrical stimulation using round electrodes (Ø 3.2cm) and counter
electrodes (10x13cm).
In the first experiment transcutaneous electrical stimulation of the
quadriceps femoris muscle motor points (RF, VL, VM) and stimulation
with large surface electrodes were applied and the threshold voltages for
muscle activation were determined using M-mode ultrasound imaging.
Simultaneously electromyographic and acceleromyographic signals were
recorded and the results were compared to those of ultrasound imaging
in terms of selectivity and sensitivity. Furthermore the contraction
induced by the stimulation with large surface electrodes was analyzed
using ultrasound B-mode imaging.
The second experiment examined the contraction dynamics of the
quadriceps femoris heads using superthreshold neuromuscular electrical
stimulation. The motor points of each quadriceps head were stimulated
selectively but also the femoral nerve was stimulated transcutaneous to
achieve a defined vastus intermedius muscle contraction. Changes in
muscle diameter were determined and compared to the peak-to-peak
amplitudes and root mean square (RMS) values of simultaneous
recorded evoked myoelectric and acceleromyographic signals. The rise
time of a muscle twitch was measured between different heads of the
quadriceps. The results show a high correlation to muscle fiber
composition values found in the literature.
The thesis provides an insight on the behavior of muscle and potential
mechanisms of muscle contractions.
26.08
Virtual Sensibility Rehabilitation meets Multitouch Technology:
Revolution der Neurorehabilitation?
S. Amsüss;
Ludwig Boltzmann Institut f. exp. und klin. Traumatologie, Wien, Austria.
Bisher beginnt ein Patient immer erst dann mit dem Training seiner
nervenverletzten Hand, wenn das Gefühl wieder in diese zurückgekehrt
ist. Die kortikalen Landkarten, die die Finger repräsentieren, sind dann
aber bereits verloren gegangen. In diesem vorgestellten neuen Ansatz
wird das Training so bald wie möglich nach der Nervenverletzung
begonnen, um das Gehirn zu schützen. Es wird hierzu die Multimodalität
der Sinne ausgenützt, denn Fühlen, Sehen und Hören hängen stark
zusammen. Dies geschieht über ein Multitouch Interface, das eigens für
diese Aufgabe konstruiert wurde. Sobald der Patient den Bildschirm
berührt und mit diesem interagiert, erfolgt audiovisuelles Feedback. Das
Fühlen der Berührung wird sensorisch durch akustische und optische
Rückmeldung ersetzt. Im Gehirn des Patienten werden "die Berührung"
und "das akustische/optische Feedback" miteinander assoziiert, die
kortikalen Landkarten konserviert und schlussendlich dadurch das
Rehabilitationsergebnis deutlich verbessert.
Im Rahmen dieser Arbeit wurde ein Gerät der Größe 240x260x330mm
konstruiert und gebaut, welches einen vollwertigen PC beherbergt.
Außerdem beinhaltet das Gerät ein komplettes multitouchfähiges
Displaysystem. Dieses besteht im Wesentlichen aus einem Projektor,
der das Bild der Computergrafikkarte auf eine Projektionsfläche an der
Oberseite des Geräts projiziert. Diese Fläche wird von einer Kamera
beobachtet, sodass Finger, die den Bildschirm berühren, erkannt werden
können. Ermöglicht wird dies durch vier Infrarotscheinwerfer, welche die
Displayoberfläche von hinten bestrahlen und durchleuchten. Bei
Berührung des Displays werden die Infrarotstrahlen von den Fingern
reflektiert. Die Kamera, welche so umgebaut wurde, dass sie nur
infrarotes Licht detektieren kann, nimmt die Finger als leuchtende
Punkte wahr. Mittels einer Open Source Software werden die Finger
getracked und deren Position über ein TCP/IP Protokoll publiziert.
Weiters ist das Display mit Kraftsensoren ausgestattet, um den
ausgeübten Druck der Finger zu quantifizieren. Eigens entwickelte Flash
Software kann diese Informationen empfangen, auswerten und
verarbeiten. Es ist also möglich, eine Vielzahl von Programmen und
Spielen zu entwickeln, wodurch die Patienten positiv zum Training
motiviert werden sollen. Im Rahmen dieser Masterarbeiten wurden
allerdings nur drei Beispielsprogramme entwickelt. Zusätzlich werden
alle Trainingsdaten gespeichert, um das Trainingsverhalten des
Patienten statistisch auswerten zu können.
Das Gerät ist fertiggestellt, eine klinische Studie befindet sich in der
Anlaufphase.
26.09
Rotational knee laxity: reliability of a simple measurement device to
determine passiv tibial rotation
P. Hoffmann, E. Unger, A. Tschakert, W. Mayr;
Zentrum für Medizinische Physik und Biomedizinische Technik der
MUW, Wien, Austria.
Background: Double-Bundle Anterior Cruciate Ligament (ACL)
reconstruction has been demonstrated to decrease rotational knee laxity
[1-3] [4]. However, there is no commercially available device to quantify
knee rotation stability.
Methods: The investigators developed a simple, non-invasive device for
recording rotation resistance versus knee rotation angle. With subject in
prone position, thigh immobilized in a fixture and tibia coupled firmly to a
torque sensor (I4A F.NR. D46918; 100NM = 2mV/V © Hottinger
Baldwin) via a rigid boot (XP Walker Medium 01P-M © Aircast) to allow
precise monitoring of rotation strain applied to the knee, an electronic
goniometer (3590S-2-104; RES 100K +/- 5%, ©Mexico Bourns) records
axial rotation of the tibia. The apparatus allows adjustment and fixation
of the knee flexion angle. The objective of this study was to collect
datasets for total tibial rotation, internal- and external tibial rotation, to
calculate the side to side difference of tibial rotation between right and
left knee of each subject and to validate reliability and reproducibility by
recording on 10 human subjects (overall 20 knees). Specifically knee
rotation range at 10°, 30° and 90° knee flexion and torque load limitation
to 3Nm, 6Nm and 9,5Nm was investigated. Reproducibility of the device
was calculated based on the standard deviation between three test
sessions.
Results: It was found that measured knee rotation differes widely with a
recorded minimum of 25° and a maximum of 57° (Dataset 6Nm)
between all subjects, however comparing isolated internal knee rotation
between right and left knees of each subject we could find a side to side
difference of only 1,7° +/- 1,5° (Dateset 6Nm; figure 1). All recorded
measurements to determine reliability of the device were detected within
the 95% confidence interval, SEMs for measuring total tibial rotation
ranged between 0,8° (10° knee flexion, 6Nm torque) and 2,2° (30° knee
flexion, 6Nm torque). Our results for measuring isolated internal rotation
by determining the physiological resting point for tibial rotation showed a
good reproducibility with SEMs between 0,2° and 1,1°(figure 2 and figure
3).
Conclusion: The reliability obtained with this device for measuring knee
rotation was found to have acceptable limits for clinical use and follow-up
interpretation. Relating to our results, focusing on measured internal
tibial rotation and corresponding side to side differences of the right and
left knee of each subject could help to evaluate the outcome of rotational
laxity after ACL reconstruction in further studies. An applied torsional
moment of 6Nm could be a good predictor for measuring rotational knee
laxity by being easily tolerated by the patient and following our results,
79
an increased torsional moment (over 6Nm) did not lead to an significant
rise in the gradient of torque/tibial rotation for internal rotation (figure 4).
26.10
Lokale Verteilung der Spurenelemente Blei, Zink und Strontium im
menschlichen Knochen
1
2
1
1,3
4
A. Roschger , B. Pemmer , P. Roschger , J. G. Hofstätter , R. Simon ,
1
2
K. Klaushofer , C. Streli ;
1
Ludwig Boltzmann-Institut für Osteologie im Hanusch-Krankenhaus der
WGKK und Unfallkrankenhaus Meidling der AUVA, 1. Medizinische
Abteilung, Hanusch-Krankenhaus, Heinrich Collin-Str. 30, A-1140, Wien,
2
Austria, TU Wien - Atominstitut, Technische Universitaet Wien,
3
Stadionallee 2, 1020, Wien, Austria, Universitätsklinik für Orthopädie,
Allgemeines Krankenhaus Wien, Medizinische Universität, Wien,
4
Austria, Karlsruhe Institute of Technology, Institute for Synchrotron
Radiation, Hermann-von-Helmholtz-Platz 1, Eggenstein-Leopoldshafen,
Germany.
Teilnahme am "Förderungspreis für Wissenschaftlichen Nachwuchs"
Es ist bekannt, dass eine Langzeit-Exposition mit Blei (Pb) neben der
Schädigung verschiedenster Organe auch einen Risikofaktor für
Osteoporose darstellt. Etwa 95% der Bleimenge des menschlichen
Körpers sind im Skelett gespeichert. Strontium (Sr) wird ebenfalls
vorwiegend im Knochen abgelagert. Das Interesse an Sr wuchs in den
letzten Jahren aufgrund der Verwendung von Strontium-Ranelat in der
Osteoporose-Behandlung. Zink (Zn) ist ein essentielles Spurenelement,
welches häufig in den reaktiven Zentren von Enzymen vorkommt, und
die Zellproliferation von knochenbildenden Zellen (Osteoblasten)
beeinflusst.
Bisherige
Studien
zeigten,
dass
die
Verwendung
von
Synchrotronstrahlungs induzierter Mikro-Röntgenfluoreszenanalyse (SRMicro-XRF) kombiniert mit quantitativer Rückstreuelektronenmikroskopie
(qBEI)
hervorragend
zur
ortsaufgelösten,
zerstörungsfreien
Multielement-Untersuchung von Knochen und Gelenksknorpel geeignet
ist.
So konnte kürzlich an der Knochen-Gelenksknorpel-Grenzfläche
(Tidemark (TM)) eine 13-fach höhere Pb-Akkumulation als im
subchondralen Knochen nachgewiesen werden.
In diesem Projekt wurden folgende Fragestellungen untersucht: 1) Wo
und wie findet die Akkumulation von Pb, Zn und Sr im Knorpel und
Knochengewebe
statt?
2)
Wie
verhält
sich
die
Spurenelementkonzentration relativ zum Mineralgehalt (Kalzium) im
Gewebe? 3) Unterscheidet sich die Spurenelementverteilung im
osteoporotischen Knochen von der in normalem Knochen?
Dazu wurden Hüftköpfe (n=6) und Kniescheiben (n=3) mit doppelten
TMs untersucht. Eine Verdopplung der TM entsteht durch ein
nochmaliges Einsetzen einer Mineralisierungsperiode der Knorpelmatrix
und steht vermutlich im Zusammenhang mit äußeren mechanischen
Reizen. Weiters wurden Knochenproben von Oberschenkelhälsen nach
postmenopausalen osteoporotischen Frakturen (n=5) und unfrakturierte
Proben (n=5) analysiert. Die frakturierten Proben wurden im Zuge von
Hüftoperationen entnommen, während die Kontrollen von Nekropsien
stammen.
Ein konfokaler Versuchsaufbau, wie er an der FLUO Beamline des
Synchrotrons ANKA (KIT, Karlsruhe, Deutschland) und der Beamline L
des Synchrotrons DORIS III (HASYLAB, Hamburg, Deutschland) zur
Verfügung steht, erlaubt eine räumliche Auflösung von etwa 10 x 15 x 20
3
Für die qBEI-Auswertungen wurden Rasterelektronenµm .
mikroskopaufnahmen (Zeiss DSM 962, Oberkochen, Deutschland) mit
einer lateralen Auflösung von 1 µm verwendet.
Die Analyse des Knorpelgewebes von Proben mit doppelter TM ergab
annähernd gleiche Zn-Konzentrationen in beiden TMs. Im Gegensatz
dazu war die Pb-Konzentration in den inneren TMs durchschnittlich 2.6fach gegenüber den äußeren TMs erhöht. Daher kann Zn als Marker für
die TMs gesehen werden, während die Pb-Konzentration offenbar ein
Maß für das Alter der TM ist.
In Relation zu den Konzentrationen im subchondralen Knochengewebe
war Zn und Pb in den TMs deutlich erhöht (bis zu 58-fach für Pb und bis
zu 7-fach für Zn). Der zugrundeliegende Akkumulationsmechanismus ist
derzeit noch unklar.
Bei der Untersuchung der Oberschenkelhalsproben konnte kein
Unterschied in der Elementverteilung zwischen den osteoporotischen
Knochen und den nichtfrakturierten Proben der Kontrollgruppe
festgestellt werden. Innerhalb einer Probe zeigten die Zementlinien
(Grenzflächen zwischen zwei Knochenpaketen) im Vergleich zu den
Konchenpaketen signifikant erhöhte Zn und Pb Werte. Daraus kann auf
einen spezifischen Einlagerungsmechanismus in diesen Regionen
geschlossen werden. Weiters wiesen Knochenränder und Ränder von
Osteonen oft hohe Zn Konzentrationen auf.
Die Auswertung charakteristischer Gebiete der Knochenpakete ergab
einen überproportional starken Anstieg der Pb-Konzentration in Relation
zu dem Ca-Gehalt. Dies deutet auf eine stetige Pb-Akkumulation hin,
während die Ca-Konzentration einen Sättigungswert erreicht. Ähnliches
wurde für Sr beobachtet.
80
Session 27: Medizinische Physik in
den Entwicklungsländern
27.2
Vierländerbeitrag zum Strahlenschutz und Strahlentherapie in
Nicaragua
1
2
F. Morales , H. von Boetticher ;
1
Hessisches Landesamt für Umwelt und Geologie, Kassel, Germany,
2
Institut für Radiologie und Seminar für Strahlenschutz, Klinikum Links
der Weser, Bremen, Germany.
26.11
Application of Semantic Web technologies on biomedical data and
their advantages concerning data integration
R. Kienast;
UMIT - Private Universität für Gesundheitswissenschaften, Medizinische
Informatik und Technik, Hall i. T., Austria.
Einführung: Für die Forschung im Bereich der Life Sciences ist es
heutzutage notwendig verschiedenste Systeme, über deren Umfang und
Verteilung hinaus, zu verstehen. Daher besteht der dringende Bedarf
biomedizinisches Wissen von verschiedensten Gemeinschaften aus
separaten Teildisziplinen zu integrieren [NS06]. Ein vielversprechender
Ansatz um diese heterogenen Datenquellen integrieren zu können, ist
der Einsatz von Semantic Web Technologien. Sie stellen eine
Framework zur Verfügung, welche mit Problemen bei der
Datenintegration umgehen kann, und erfüllt auch die Anforderungen, um
eine maschinelle Verarbeitung zu ermöglichen.
Zielsetzung: Diese Arbeit gibt einen Überblick über die Datenintegration
biomedizinischer Daten mithilfe von Semantic Web Technologien. Des
Weiteren wurde eine Software entwickelt, welche in der Lage ist,
Ontologie-Dateien zu verarbeiten und Daten aus den Life Science
Integrative Data Warehouse (LINDA) zu annotieren.
Methoden: Um einen Überblick über die Datenintegration
biomedizinischer Daten mithilfe von Semantic Web Technologien
bereitzustellen,
wurde
eine
systematische
Literaturrecherche
durchgeführt. Für die Software Entwicklung wurde die objektorientierte
Programmiersprache Java und die Technik der Rich Client
Programmierung auf Basis des Frameworks von NetBeans verwendet.
Die Software wurde nach dem Baukastenprinzip entwickelt. Für die
Handhabung der OBO (Open Biological and Biomedical Ontologies)
formatierten Ontologie-Dateien wurde die OWL API (Application
Programming Interface) verwendet, und zur Unterstützung der
Datenbank-Verbindung die Hibernate-API.
Ergebnisse: Das Ergebnis dieser Arbeit ist eine detaillierte Übersicht
der Datenintegration mithilfe von Semantic Web Technologien in der
Biomedizin einschließlich vorhandener Techniken (Standards,
Spezifikationen und Methoden), Herausforderungen, Ansätze und
Projekte. Die entwickelte Software namens BioDOnX-Rich ist eine
modulare
Rich
Client-Anwendung
basierend
auf
der
Programmiersprache Java und der Net-Beans Rich Client Plattform. Sie
besitzt die Fähigkeit Ontologien, welche von der OBO Foundry zur
Verfügung gestellt werden, zu laden und anzuzeigen. Zu diesen gehört
auch die Gene Ontology (GO). Des Weiteren unterstützt sie die
Annotation von Daten aus der In House Life Sciences Datenbank
(ILSD).
Diskussion: Semantic Web Technologien bieten einen mehr oder
weniger
standardisierten
hierarchischen
Framework
für
die
Datenintegration an, und ermöglichen eine dezentrale semantische
Integration verschiedenster heterogener Datenquellen. Voraussetzung
für eine sinnvolle semantische Datenintegration ist jedoch das
Vorhandensein von qualitativ hochwertigen, frei zugänglichen
biomedizinischen Ontologien, wie zum Beispiel die GO oder andere
Ontologien der OBO Foundry. Allerdings gibt es noch ein paar
Herausforderungen zu bewältigen, wie zum Beispiel das Fehlen
eindeutiger Bezeichner, die Entwicklung und Wartung von Ontologien
oder die Abfrage von RDF-Daten.
Referenzen: [NS06] T. Berners-Lee N. Shadbolt, W. Hall. The semantic
web revisited. IEEE Intell Syst
App, 21(3):96-101, 2006.
Einleitung: In Nicaragua wurde mit der Strahlentherapie im Jahr 1960
begonnen (die Anfänge der radiologischen Diagnostik liegen natürlich
deutlich früher), aber das große Erdbeben im Jahr 1972 zerstörte alle
Einrichtungen. Mit Unterstützung aus der Schweiz konnte zwar 1985 das
Gebäude wieder aufgebaut werden, aber das blieb leer, weil zu dieser
Zeit kein Personal vorhanden war.Der Aufbau der jetzige Struktur
begann 1994 im technischem und gesetzlichem Sinne mit dem Bau des
Nationalen Zentrums für Strahlentherapie (Centro Nacional de
Radioterapia - CNR), dem Labor für Strahlenphysik (Laboratorio de
Física de Radiaciones - LAF-RAM) an der Nationalen Autonomen
Universität von Nicaragua (UNAN-Managua) und die Gründung von der
Behörde (CONEA). Die wichtigsten Partner waren Deutschland
(Klinikum Links der Weser, Bremen), die USA (MD Anderson Cancer
Center), die Schweiz (Instituto Oncologico della Svizzera Italiana) und
die Internationale Atomenergieorganisation (IAEA, Österreich).
Übereinstimmungen und Unterschiede: Als Referenz wurden
deutsche Verordnungen herangezogen, weil eine Vielzahl von
Richtlinien und Verordnungen von Deutschland aus zur Verfügung
gestellt worden waren.Für die Strahlentherapie wurde ein Qualitätsplan
entwickelt, der von den Medizinphysikern, Strahlentherapeuten, MTRAs
und der Direktion unterschrieben wurde. Mit dem Qualitätsplan wurde
die Verpflichtung übernommen, nur renommierte Bücher und
Empfehlungen wie Perez and Brady's principles and practice of radiation
oncology in der Medizin oder die IAEA-Empfehlungen in der Physik zu
benutzen. Ein IAEA-Audit wurde beantragt; daraufhin überprüfte ein
IAEA-Team (bestehend aus einem Radiotherapeuten, einem
Medizinphysiker, einem Strahlenschutzexperten und einem IAEAOfficer) eine Woche lang das Qualitätssystem und kam zu dem
Ergebnis, dass das Qualitätssystem die internationalen Empfehlungen
vollständig erfüllt.Der Strahlenschutz wird nur mit einer Verordnung
Reglamento técnico de protección contra las radiaciones ionizantes
(RPRI, 1993) geregelt, die viel einfacher aufgebaut ist als die deutsche
Strahlenschutzverordnung (2001), die Richtlinie Strahlenschutz in der
Medizin (2002) und die Röntgenverordnung. Zum Strahlenschutz von
Patienten werden ständig kombinierte Kontrollen vorgenommen, die
beispielhaft im Folgenden aufgeführt werden:
a. In einem wöchentlichen Treffen der gesamten Gruppe werden die
Bestrahlungsunterlagen eines zufällig ausgewählten Patienten
analysiert, um mögliche Fehler von Medizinern oder Physikern zu finden.
Die MTRAs werden von Medizinern und Physikern kontrolliert.
b. Nach jeder Wartung wird eine unabhängige Messung - mit eigenen
Geräten - der absorbierten Dosis von einer Arbeitsgruppe aus der
Medizinischen Physik der Universität (UNAN-LAF-RAM) unabhängig
vom Zentrum für Strahlentherapie (CNR) durchgeführt.
c. Am ersten Tag der Bestrahlung eines Patienten müssen ein
Mediziner, ein Physiker und ein MRTA dabei sein, die mit demselben
Patient an der Simulation und Bestrahlungsplannung teilgenommen
haben, um alle Parameter noch einmal zu kontrollieren. Vor jeder
Bestrahlung kontrolliert jeweils ein Physiker die Berechnung eines
anderen.
Ergebnisse und Diskussion:
Es ist natürlich schwierig, beide Länder zu vergleichen, aber in den
Grundprinzipien ist es möglich. Es konnte gezeigt werden, dass auch ein
Entwicklungsland mit geringen finanziellen Möglichkeiten ein
internationales Niveau erreichen kann. Dies war allerdings nur möglich
durch den Einsatz und die Begeisterungsfähigkeit einer Gruppe von
Fachleuten, der Förderung durch die damaligen Regierungen und der
Unterstützung durch die IAEA. Wenn eine dieser drei Voraussetzungen
fehlt, kann in Monaten zerstört werden, was man in Jahren aufgebaut
hat. Das kommt leider oft in Entwicklungsländern vor.
81
27.3
Modern Radiotherapy - a treatment for the rich only?
S. Ueltzhöffer;
Precisis AG, Heidelberg, Germany.
Discussion about future ways of Radiotherapy in the western world and
developing countries.
Is modern radiotherapy reserved for the western world only? Are recent
developments really driven by the pursuit of better healthcare or rather
by even higher reimbursements?
Is there a reasonable standard: therapeutically optimal, yet affordable?
If there is no perfect treatment, how much of a compromise can be
accepted for the sake of a broader accessibility?
Whereas increasing therapeutic effectiveness is to be appreciated,
Medical Physics research ought to be taking this second goal into
account. Although answers might be hard to find and discussions might
be controversial, a short introduction and space for an open discussion
will be given.
As the Medical Physics society can have a large impact on both,
treatment device developments and professional's general perception of
standards and levels of compromise, this topic is recommended to be
part of current and future discussions.
27.4
Medizinische Physik und Biomedizinische Technik - Ausbildung an
der Gono University in Bangladesch
1
1
1
1,2
K. C. Paul , M. Akhtaruzzaman , H. A. Azhari , G. A. Zakaria ;
1
Department of Medical Physics and Biomedical Engineering, Gono
2
Bishwabidyalay, Dhaka, Bangladesh, Abteilung für Medizinische
Strahlenphysik, Kreiskrankenhaus Gummersbach, Akademisches
Lehrkrankenhaus der Universität Köln, Gummersbach, Germany.
Das Konzept für eine Abteilung für Medizinische Physik und
Biomedizinische Technik in Bangladesch zu schaffen, wurde in den
neunziger Jahren erarbeitet. Die Entwicklung begann damit, dass Prof.
Dr. Golam Abu Zakaria in Deutschland diesen Prozess durch die
Durchführung mehrerer internationaler Seminare über Medizinische
Physik in Dhaka eingeleitet hatte. Eines der Ergebnisse war, dass eine
private Universität, die Gono Bishwabidyalay (Gono University), im Jahr
2000 auf seinen Vorschlag hin die Gründung eines Masterstudiums
M.Sc (4 Semester) in Medizinischer Physik und Biomedizinischer
Technik (MP/BME) und später im Jahr 2005 den Bachelor-Studiengang
B.Sc (8 Semester) einführte. Beide Studiengänge wurden von der
University Grant Commission (UGC) akkreditiert. Seitdem ist es die
einzige Universität, die B.Sc- und M.Sc-Kurse in Medizinischer Physik
und Biomedizinischer Technik in Bangladesch anbietet. Die Lehrpläne
der Kurse basieren auf DGMP-, AAPM- und IAEA-Dokumenten und
werden an den Bedarf von Bangladesch angepasst. Die Kursstruktur ist
so entwickelt, dass die Studierenden nach dem Abschluss in der Lage
sind, in Krankenhäusern, Gesundheitszentren, Instituten und
Forschungseinrichtungen zu arbeiten. Die Grundvoraussetzung für die
Zulassung zum Masterstudiengang ist ein Bachelor-Abschluss in einem
der folgenden Fächer: MP/BME, Physik, verwandte Bereiche der
Naturwissenschaften
oder
Biowissenschaften,
Medizinoder
Ingenieurwissenschaften. Die Lehrpläne umfassen Vorlesungen,
praktische Arbeiten sowie die Erarbeitung einer Dissertation. Formale
Prüfungen finden nach jedem Semester statt, diese werden von einem
Prüfungsausschuss abgenommen. Praktische Arbeiten finden in
Abteilungs-Labors sowie auch in den Strahlentherapien und Radiodiagnostischen Abteilungen verschiedener Krankenhäuser statt. Die
Master-Arbeit von den Studenten wird im letzten Semester von lokalen
oder ausländischen Professoren betreut und beaufsichtigt.
Im Jahr 2003 wurde eine Zusammenarbeit zwischen der Universität
Heidelberg (Deutschland) und der Gono University (Bangladesch)
vereinbart. Im Rahmen dieser Zusammenarbeit zwischen den beiden
Universitäten wurden Professoren und Studierende durch den
Deutschen Akademischen Austauschdienst (DAAD) finanziell unterstützt
und die Abteilung erhielt auch die Ausstattung, Unterrichtsmaterialien,
Zeitschriften und Forschungsmaterialien. Einige der Studierenden und
Assistenten konnten ihre Doktorarbeit in Medizinischer Physik schreiben
und den praktischen Teil auch an ausländischen Universitäten
absolvieren. Nach der Gründung der Abteilung MP/BME bis zum Jahr
2010 wurde an eine Vielzahl von Studenten ein M.Sc und auch
inzwischen an acht Studenten ein B.Sc vergeben. Gegenwärtig werden
diese Absolventen in der Abteilung für Strahlentherapie des National
Institute of Cancer Research (NICRH) und Dhaka Medical College sowie
in verschiedenen privaten Krankenhäusern (Square Hospital, United
Hospital, Khwaja Yunus Ali Medical College and Hospital) eingesetzt
oder sie lehren Medizinische Physik an der Gono University.
Die Gründung und der Aufbau der Abteilung für Medizinische Physik und
Biomedizinische Technik an der Gono Bishwabidyalay ist eine
Erfolgsgeschichte für Bangladesch. Wir möchten die erfolgreiche und
82
moderne Medizinische Physik und Biomedizinische Technik
kontinuierlich weiter entwickeln und Programme für Bildung und
Forschung mittels der Einbeziehung der neuesten Entwicklungen der
Bildgebung und Strahlentherapie erstellen. Für die Zukunft möchten wir
weiterhin eine enge Zusammenarbeit mit anderen ausländischen
Universitäten und Forschungseinrichtungen etablieren und würden uns
über eine Teilnahme an internationalen wissenschaftlichen Konferenzen
freuen, um unser Potenzial für eine bessere Behandlung der
Krebspatienten in unserem Land zu gewährleisten.
POSTER
P01.02
Implementierung und Qualitätskontrolle von UTE-Sequenzen für
MR-Microimaging an Gewebetypen und Kunststoffen mit sehr
kurzen T2-Zeiten
Poster 01: MRI und Spektroskopie
C. Horn , V. Juras , A. Berg ;
Medical University of Vienna, MR-Center of Excellence, Vienna,
2
Austria, Medical University of Vienna, Center for Medical Physics and
Biomedical Engineering, Vienna, Austria.
1,2
P01.01
Explorative Analyse der Functional Connectomes Datenbank unter
Verwendung von parallelisierter FENICA
1,2
1,3
1,3
1
1,2
1,2
1
3
R. N. Boubela , W. Huf , K. Kalcher , V. Schöpf , C. Scharinger , G.
3
2
3
3
1
Pail , P. Filzmoser , S. Kasper , L. Pezawas , E. Moser , C.
1
Windischberger ;
1
Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und
Biomedizinische Technik, Lazarettgasse 14, 1090 Wien, Wien, Austria,
2
Institut für Statistik und Wahrscheinlichkeitstheorie, Technische
Universität Wien, Wiedner Hauptstrasse 8-10, 1040 Wien, Wien, Austria,
3
Abteilung für biologische Psychiatrie, Universitätsklinik für Psychiatrie
and Psychotherapie, Medizinische Universität Wien, Währinger Guertel
18-20, 1090 Wien, Wien, Austria.
Einleitung: Niederfrequente, spontane Fluktuationen im BOLD-Signal
(blood oxygen level dependent signal) während Restingstate-fMRT
konnten seit dem ersten Bericht von Biswal et al. (1995) bereits
mehrfach konsistent reproduziert werden. Die damit assoziierten
Netzwerke werden als Resting State Networks (RSNs) bezeichnet. Mit
der zunehmenden Verfügbarkeit von großen Datensätzen - wie dem
Functional-Connectomes-Datenensatz (Biswal et al. 2010), welcher
inzwischen ca. 1500 Probanden von über 38 veröffentlichten Studien
enthält - und immer leistungsfähigerer Computer-Hardware, steigt damit
auch die Bedeutung von explorativen Verfahren im Bereich der NeuroBildgebung. Wir verwendeten Fully Exploratory Network ICA (FENICA;
Schöpf et al. (2010)), um eine Gruppe von 300 Probanden aus dem
Functional-Connectomes-Datensatz hinsichtlich RSNs zu analysieren.
Methodik: Die Rohdaten wurden räumlich geglättet (Gauß-Kernel 8mm
FWHM isotrop), bewegungskorrigiert und mit einem Bandpassfilter (0,10,01 Hz) gefiltert (Weissenbacher et al. 2009). ICA (Independent
Component Analysis) wurde mit FSL MELODIC berechnet und die
Anzahl der Komponenten mittels LAP-Kriterium bestimmt. Danach
wurden die Bilder mit AFNI auf eine EPI Schablone im MNI-Raum
registriert und auf 3mm isotrop gerastert. Der FENICA-Algorithmus
wurde auf die Komponenten der einzelnen Probanden angewandt und
redundante Komponenten (räumliche Korrelation größer 0,75) eliminiert.
Resultate: In Summe wurden 18 über alle Probanden konsistente
Komponenten identifiziert, wovon 12 in der grauen Substanz und die
restlichen 6 in der weißen Substanz, Liquor cerebrospinalis und
Artefakten lokalisiert waren. Die Abbildung zeigt die 12 Komponenten
der grauen Substanz, wobei die Farbe den t-Werten mit Schwellwert
t(299)= 6 (p < 0.025 FWE-korrigiert).
Diskussion: Dies ist die erste Neuro-Bildgebungsstudie, die ein nahezu
vollständig exploratives Verfahren auf weit mehr als 100 Probanden
anwandte. Im Gegensatz zu bisherigen Ergebnissen, wo in Abhängigkeit
der Gruppengröße und anderer studienspezifischer Faktoren wie etwa
Scanner Hardware und Protokolle eine verschiedene Anzahl von
Netzwerken gefunden wurde, erlaubt eine Analyse über mehrere
Zentren die Synthese der zur Verfügung stehenden Evidenz über RSNs
konsistentere Identifikation von Komponenten. Bei kleineren Studien ist
die übliche Anzahl von gefundenen RSNs zwischen 8 und 10
(Damoiseaux et al. 2006). Die höhere Sensitivität auf Grund des
größeren Stichprobenumfangs erlaubte hier 12 Komponenten zu
unterscheiden, die mit verschiedenen Netzwerken in Zusammenhang
gebracht werden konnten, einschließlich der Unterscheidung von zwei
Komponenten des typischen Default Mode Netzwerks.
References:
Biswal, B. et al. (1995), 'Functional connectivity in the motor cortex of
resting human brain using echo-planar MRI', Magnetic Resonance in
Medicine, vol. 34, pp. 537-541.
Biswal, B.B. et al. (2010), 'Toward discovery science of human brain
function', PNAS, vol. 107, pp. 4734-4739.
Damoiseaux, J.S. et al. (2006), 'Consistent resting-state networks across
healthy subjects', PNAS, vol. 103, pp. 13848-13859.
Schöpf, V. et al. (2010), 'Fully exploratory network ICA (FENICA) on
resting-state fMRI data', Journal of Neuroscience Methods, vol. 192, pp.
207-213.
Weissenbacher, A. et al. (2009), 'Correlations and anticorrelations in
resting-state functional connectivity MRI: a quantitative comparison of
preprocessing strategies', Neuroimage, vol. 47, pp. 1408-1416.
Einleitung: Die Struktur und der morphologische Aufbau halbfester
Gewebekomponenten oder Implantate (z.B. Kortikalis, Hornsubstanz,
Cornea, Dermis, kalzifizierter Knorpel, Zähne und Kunststoffe) können
nicht mit Standard-MR-Methoden bildlich dargestellt werden, da die
Beweglichkeit der signalgebenden Moleküle stark reduziert ist. Hiermit
ist eine starke Signal (Linien-) Verbreiterung in der MR verbunden und
eine erhebliche Reduktion der T2-Zeiten (< 1 ms). Dies führt bei den
Standard-Pulssequenzen der MR-Bildgebung zu einem raschen Zerfall
des MR-Signals vor der Detektion.
Gewebekomponenten und Materialien mit kurzer T2-Zeit können durch
die Anwendung spezieller, auf ultrakurze Detektionzeiten (TEmin = 0.07
ms) ausgelegter UTE (Ultrashort Echo Time) -Sequenzen visualisiert
werden. Bisher standen Pulssequenzen für sehr kurze Detektionszeiten
nur auf speziellen Mikroskopie-MR-Systemen oder Human-MRScannern mit reduzierter Auflösung zur Verfügung.
Im Rahmen einer Qualitätskontrolle werden in dieser Arbeit erste
Ergebnisse zur Funktionsweise Bildqualität und Besonderheiten dieser
UTE-Sequenzen an einer neu installierten Mikroskopie-Einheit am
Wiener Hochfeld-(7T)-Human-Scanner präsentiert.
Material und Methodik: Bei den UTE-Sequenzen wird durch starke
Gradienten, direkt nach der 90°-Puls-Anregung, im FID eine
Frequenzkodierung des Signals als Projektionsprofil mit verschiedenen
Projektionsrichtungen vorgenommen. Hierbei wird der dreidimensionale
polare k-Raum spiralförmig, über radiale Profile aufgefüllt und
anschließend über das kartesische Fouriergitter interpoliert.
Hochortsaufgelöste Bildgebung wird durch den Einsatz starker
Gradienten und sehr empfindlicher Detektorspulen erreicht. Dies
ermöglicht eine spezifische Gradienten-Einheit mit einer maximalen
Gradientenstärke von 750 mT/m, die in die Bohrung eines Siemens
Magnetom 7T Ganzkörpersystems eingesetzt wird. Prinzipiell ist so eine
laterale Auflösung unter 50 µm möglich.
Wir untersuchen den Einfluss verschiedener Sequenzparameter auf
Auflösungsvermögen, Signal-Rausch-Verhältnis und Artefaktbildung. Als
Proben dienen Kunstoffe, die in ihrer Härte (Vernetzungsgrad) und
Struktur variieren. Außerdem wird die praktische Anwendbarkeit der
Sequenz an biologischen Proben mit kurzen T2-Zeiten evaluiert.
Ergebnisse: Die Untersuchung der Orts-Auflösung an einem Phantom
zeigt, dass Strukturen von 128 µm aufgelöste werden können. Allerdings
ist
in
der
UTE-Bildgebung
ein
Auftreten
starker
Kantenanhebungsartefakte in radialer Richtung zu beobachten, die
systematisch in einer ausgezeichneten Gradientenrichtung erscheinen.
Die Kantenanhebung kann bis zu 100% betragen. Die Bildqualität ist
deutlich von der Anzahl der Projektionsprofile abhängig. Abweichungen
von der exakten Resonanzfrequenz führen zu weiteren Artefakten.
Mögliche Ursachen und Vorschläge zur Lösung werden diskutiert.
Conclusio: UTE-Sequenzen erlauben sehr kurze Detektionszeiten von
bis zu 0,07 ms und in Kombination mit einem starken MicroimagingGradientensystem auch Auflösungen, die an einem klinischen MRScanner nicht möglich sind.
Allerdings weisen die bisher verfügbaren Pulssequenzen auch Artefakte
mit einer Anhebung der Signalintensität an den Kanten auf. Deren
Ursache kann möglicherweise in einem imperfekten Schaltverhalten der
Gradienten liegen.
P01.03
Funktionelle Konnektivität zwischen subkortikalen und kortikalen
Regionen bei remittierter Depression
1,2
1,2
1,2
2
2
K. Kalcher , R. N. Boubela , W. Huf , C. Scharinger , G. Pail , B.
2
1
3
1
2
Hartinger , C. Windischberger , P. Filzmoser , E. Moser , S. Kasper , L.
2
Pezawas ;
1
Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und
Biomedizinische Technik, Medizinische Universität Wien, Wien, Austria,
2
Abteilung für biologische Psychiatrie, Universitätsklinik für Psychiatrie
and Psychotherapie, Medizinische Universität Wien, Wien, Austria,
3
Institut für Statistik und Wahrscheinlichkeitstheorie, Technische
Universität Wien, Wien, Austria.
Einleitung: Der klassische Verlauf der Major-Depression ist von einer
oder mehreren depressiven Episoden und damit alternierenden
Episoden vollständiger oder teilweiser Remission gekennzeichnet. Der
Fokus der meisten einschlägigen Studien mit funktioneller
Magnetresonanztomographie (fMRT) lag bisher auf den depressiven
Episoden. Diese Studien zeigten unterschiedliche Ergebnisse in Struktur
83
und Aktivität bestimmter kortikaler Regionen, darunter Gyrus Cinguli
(GC), orbitofrontaler Kortex (OFC) sowie dorsolateraler präfrontaler
Kortex (DLPFC). Weiters gibt es Hinweise darauf, dass neuronale
Netzwerke aus kortikalen mit subkortikalen Regionen wie der Amygdala
und den Basalganglien in der Pathophysiologie der Depression eine
Rolle spielen [1]. Episoden der Remission nach Ende der
medikamentösen Therapie dagegen werden wesentlich seltener
untersucht. In dieser Studie wurde Resting-State-fMRT [2] verwendet,
um Unterschiede der Konnektivität zwischen remittiert depressiven
Patienten und Gesunden zu ermitteln. Speziell wurden dabei die
Konnektivitätsmuster von Amygdala und Basalganglien untersucht.
Methodik: 43 remittiert depressive Patienten und 35 gesunde
Probanden wurden an der Medizinischen Universität Wien rekrutiert und
einem sechsminütigen Resting-State-fMRT-Scan unterzogen (3T
Siemens Magnetom TIM Trio, 12-Kanal Kopfspule, GE single-shot EPI
Sequenz, TE/TR = 42/2000ms, 96x96 Matrix, Bildfeld 210x210mm, 20
Axialschnitte, 4mm Schichtdicke, 1mm Schichtabstand, 180 Zeitpunkte).
Korrektur für Schichtaufnahmezeiten und Bewegung, mittleres Signal
der weißen Substanz sowie des Liquor cerebrospinalis und für den
Median des Signals der grauen Substanz wurde durchgeführt [3]. SeedZeitreihen für Amygdala und Basalganglien wurden mittels individueller
Masken extrahiert und mit allen anderen Knoten in einer
oberflächenbasierten Analyse korreliert. Korrelationskoeffizienten
wurden Fisher-transformiert, die resultierenden z-Werte mit einem
isotropen 8mm FWHM Gaußfilter geglättet und zwischen den Gruppen
mittels t-Test verglichen.
Resultate: In der Gruppe der remittiert depressiven Patienten zeigte
sich erhöhte funktionelle Konnektivität der Basalganglien mit dem
posteriorem Teil des GC und dem DLPFC, sowie erhöhte Konnektivität
zwischen Amygdala und dem posteriorem Teil des GC und dem OFC.
Diskussion: In dieser Studie zeigten sich Hinweise auf unterschiedliche
Verschaltung neuronaler Netzwerke von Amygdala und Basalganglien
zu depressionsrelevanten kortikalen Regionen. Insbesondere zeigten
beide betrachteten subkortikalen Regionen erhöhte Konnektivität zum
posterioren Teil des GC, einer Region, die bei Resting-State-fMRT als
einer der Hauptbestandteile des sogenannten Default-Mode-Netzwerks
des Gehirns anerkannt ist. Folglich sind bei dieser Patientengruppe,
obwohl sie keine akuten Symptome mehr aufweist, Veränderungen des
Gehirns auf Systemebene nachweisbar.
Referenzen:
[1] Frodl T., Scheuerecker J., Schoepf V., Linn J., Koutsouleris N.,
Bokde A.L., Hampel H., Möller H.J., Brückmann H., Wiesmann M.,
Meisenzahl E. (2010), 'Different effects of mirtazapine and venlafaxine
on brain activation: an open randomized controlled fMRI study'. The
Journal of Clinical Psychiatry, epub ahead of print.
[2] Fox, M.D., Raichle M.E. (2007), 'Spontaneous fluctuations in brain
activity observed with functional magnetic resonance imaging', Nature
Reviews Neuroscience, vol. 8, pp. 700-711.
[3] Weissenbacher, A., Kasess, C., Gerstl, F., Lanzenberger, R., Moser,
E., Windischberger, C. (2009), 'Correlations and anticorrelations in
resting-state functional connectivity MRI: a quantitative comparison of
preprocessing strategies', Neuroimage, vol. 47, pp. 1408-1416.
P01.04
Statistische Methoden und Artefakterkennung in fMRT- Daten der
menschlichen Wadenmuskulatur
1
2
2
1
1,2
R. Kriegl , M. Andreas , M. Wolzt , E. Moser , A. I. Schmid ;
1
Zentrum für medizinische Physik und biomedizinische Technik,
2
Medizinische Universität Wien, Wien, Austria, Universitätsklinik für
klinische Pharmakologie, Medizinische Universität Wien, Wien, Austria.
Einleitung: Mit Hilfe der funktionellen Kernspinresonanzbildgebung
(fMRT) kann unter anderem die Durchblutung der Skelettmuskulatur
untersucht werden. Dies ist von Interesse, da Veränderungen in der
Gewebedurchblutung häufig auf kardiovaskuläre Erkrankungen
hindeuten. Zum Zweck einer solchen Untersuchung wird die Reperfusion
nach einer bewusst hervorgerufenen Ischämie betrachtet. In diesem Fall
bestimmen zwei Vorgänge die Reperfusion: Ein starker Anstieg in der
Gewebedurchblutung und Änderungen im Sauerstoffgehalt. Beides trägt
zum BOLD- Kontrast (blood oxygenation level-dependent) in der fMRT
bei.
Die Echoplanare Bildgebung (EPI, Echoplanar Imaging) kann dazu
benutzt werden um fMRT Daten von Muskeln aufzunehmen. Das
Hauptmerkmal der EPI-Technik ist Geschwindigkeit, allerdings ist sie
anfällig für Artefakte, insbesondere Bewegungsartefakte. Da das
Ischämie-Reperfusionsexperiment relativ lang (45 Min.) dauert, wird die
Wahrscheinlichkeit dafür, dass Artefakte auftreten noch vergrößert. Die
Unabhängigkeitsanalyse (ICA, independent component analysis) ist eine
Methode der multivariaten Statistik, die erfolgreich in der fMRT
Bildgebung des Gehirns und in der Elektroenzephalographie
angewendet wird.
Mit ihr ist es möglich Daten in einzelne, statistisch unabhängige
Komponenten zu zerlegen und so einen genaueren Einblick in das
84
Signal zu gewinnen. Ziel der vorgestellten Arbeit ist es, mit Hilfe einer
zeitlichen Unabhängigkeitsanalyse (tICA) den Zeitverlauf von fMRTDaten, gemessen in der menschlichen Wadenmuskulatur, zu
untersuchen und dabei Artefakte zu identifizieren und dann aus den
Daten zu entfernen.
Methoden: Elf gesunde, männliche Probanden nahmen an dem
Ischämie- Reperfusionsexperiment Teil, in dem sie am Ende der
Ischämie Plantarflexion bis zur Erschöpfung ausführen sollten.
Fettunterdrückte EPI Bilder (TE = 44 ms, TR = 500 ms) wurden mit
einem Siemens Tim Trio Scanner kontinuierlich vor, während und nach
der Ausübung der Bewegung aufgenommen. Es wurden fünf axiale
Schichten der gesamten Wade, jeweils 5 mm dick, aufgezeichnet. Im
Folgenden wurde der kombinierte Zeitverlauf aller gemessenen Voxel
betrachtet. In Abbildung 1 und 2 sind axiale EPI-Bilder aller Schichten
und ein Signalverlauf mit Erläuterungen zu sehen.
Die statistische Analyse der Daten wurde mit Matlab (Matlab R2009a,
The Mathworks, Inc) und der eigens für Matlab entwickelten FastICA
toolbox durchgeführt. Um die von vornherein sehr große Datenmenge
auf eine handhabbare Größe zu reduzieren wurde vor der ICA eine
Hauptkomponentenanalyse (PCA, principal component analysis)
angewendet. Die PCA ermöglicht es umfangreiche Datensätze zu
strukturieren, indem eine Vielzahl statistischer Variablen durch eine
geringere Zahl möglichst aussagekräftiger Linearkombinationen, die
Hauptkomponenten, genähert wird. Diese Hauptkomponenten wurden
dann mittels ICA in Komponenten transformiert, die einen statistisch
unabhängigen Zeitverlauf aufweisen. Die so gefundenen statistisch
unabhängigen Komponenten dienten nun dazu Artefakte und
verschiedene physiologische Bestandteile im Zeitverlauf des
Gesamtsignals zu identifizieren und die Artefakte aus dem
ursprünglichen Zeitverlauf zu entfernen.
Die Identifikation von Artefakten und anderer Signalteile erfolgte durch
visuelle Inspektion.
Ergebnisse und Schlussfolgerungen: Abbildung 3 zeigt den
Zeitverlauf des Signals aus einer Messung vor und nach der Entfernung
der durch ICA gefundenen Artefakte.
Mithilfe von ICA konnten Artefakte aus dem Signalverlauf identifiziert
und entfernt werden, was die Genauigkeit und Zuverlässigkeit von
mfMRT Messungen erhöht.
Anmerkungen: Studie finanziert durch den Wiener Wissenschaft-,
Forschungs- und Technologiefonds (WWTF);
[1]. Noseworthy, M.D.,et al. Seminars in Musculoskeletal Radiology.
2003.
[2]. McKeown, M.J., et al. Hum. Brain Mapping. 1998.
Poster 02: Biomedizinische Technik
P02.01
Einfluss der Parameter Umgebungstemperatur und Durchmesser
der nasalen Luftwege auf die Temperaturverteilung am Pferdekopf
1
2
3
1
C. Siewert , C. Staszyk , A. Bienert-Zeit , B. Krogbeumker , B.
3
1
Ohnesorge , H. Seifert ;
1
Allgemeine Radiologie und Medizinische Physik, Tierärztliche
2
Hochschule Hannover, Hannover, Germany, Anatomisches Institut,
3
Tierärztliche Hochschule Hannover, Hannover, Germany, Klinik für
Pferde, Tierärztliche Hochschule Hannover, Hannover, Germany.
Einleitung: Um die Infrarot (IR)-Bildgebung [1] künftig auch zur
Diagnostik von Nasengangs- und Nasennebenhöhlen-Pathologien am
Pferdekopf einsetzen zu können, sind Kenntnisse über den Einfluss der
Parameter Umgebungstemperatur und Durchmesser der nasalen
Luftwege auf die Temperaturverteilungsmuster im IR-Bild eine wichtige
Voraussetzung.
Material und Methoden: Es wurden Finite Element Methode (FEM)Simulationen
unter
Anwendung
der
biologischen
Wärmeleitungsgleichung (Multiphysics V 4.1, Fa. Comsol Multiphysics
GmbH) an einem Querschnittsmodell des Pferdekopfes mit einer Fell-,
einer Haut-, einer Knochen- und einer Gewebeschicht mit einem
zylinderförmigen, parallel zur Hautoberfläche verlaufenden Luftweg
durchgeführt. Dabei wurde die Konvektion auf der Haut- bzw.
Felloberfläche berücksichtigt. Die weiteren Parameter der Simulation
sind bereits in [3] angegeben. Die Parameter Umgebungstemperatur Tu
und Durchmesser des Luftweges wurden im Rahmen der FEMSimulationen variiert.
Die berechneten Temperaturverteilungsmuster wurde mit IR-Bildern von
Pferdeköpfen qualitativ verglichen, die bei einer Umgebungstemperatur
von 5 und 15 °C mit IR-Kameras vom Typ IR Flex Cam 320 bzw. R2 (Fa.
Goratec) aufgenommen wurden. Die IR-Bildmatrix betrug 320 x 240
bzw. 160 x 120 Pixel, die thermische Auflösung 70 mK.
Ergebnisse:
Die
mittels
FEM-Simulation
berechneten
Temperaturverteilungsmuster (s. Abb. 2b und c) stimmen qualitativ gut
mit typischen IR-Bildern von Probanden überein (s. Abb. 1b und 1c). Die
markanten Temperaturunterschiede oberhalb eines Luftweges werden
jedoch schwächer, wenn die Umgebungstemperatur ansteigt (Anstieg
um 8 ºC, Tu = 19 ºC, s. Abb. 2a). Eine Verringerung des Durchmessers
des Luftweges von 10 über 6 auf 2 mm führt ebenfalls zu einer
deutlichen Abschwächung des Temperaturprofils (s. Abb. 2d, 2e, 2f).
Diskussion: Die Ergebnisse der FEM-Simulationen zeigen, dass die im
IR-Bild beobachteten Temperaturverteilungsmuster erheblich von den
Parametern Umgebungstemperatur und Durchmesser der nasalen
Luftwege beeinflusst werden. Dieser Einfluss muss somit bei der
Entwicklung einer Methode zur Auswertung von IR-Bildern in Hinblick
auf die Diagnostik von Nasengangs- und NasennebenhöhlenPathologien des Pferdes berücksichtigt werden.
Literatur:
1. Keyserlingh JR, Ahlgren PD et al. (2008): Functional Infrared Imaging
of the Breast: Historical Perspectives, Current Applikation, and Future
Considerations, In: NA Diakides, JD Bronzino, Medical Infrared Imaging,
CRC Press, Boca Raton
2. Krogbeumker B, Siewert C, Staszyk C, Bienert A, Ohnesorge B,
Seifert H (2009): The passive infrared thermography as addition to
diagnostics of diseases in the head region of the horse - First results. In:
Dössel, O; Schlegel, WC (Hrsg.): IFMBE Proceedings 25 (II) 11th World
Congress Medical Physics and Biomedical Engineering. Berlin
Heidelberg NY, 221-224
3. Siewert C, Staszyk C, Seifert H (2010): Einfaches FEM-Modell zur
Berechnung der Temperaturverteilung am frontalen Pferdekopf - Erste
Ergebnisse. In: 41. Wissenschaftliche Tagung der DGMP (2010), (Hrsg.:
N Hodapp, J Hennig, M Mix). Freiburg, Tagungs-CD, 610-612
P02.02
In-silico-Modellierung der sauerstoffkonzentrationsabhängigen
Invasionsgeschwindigkeit von Tumorzellen
1,2
3
1
1,4
1,2
A. Toma , P. Pfenning , A. Mang , T. A. Schütz , S. Becker , W.
3
1
Wick , T. M. Buzug ;
1
Institute of Medical Engineering, University of Lübeck, Lübeck,
2
Germany, Kompetenzzentrum für Medizintechnik (TANDEM), Lübeck,
3
Germany, Kilinische Neuroonkologie, Deutsches
Krebsforschungszentrum Heidelberg (DKFZ), Heidelberg, Germany,
4
Graduiertenschule für Informatik in Medizin und Lebenswissenschaften,
Universität zu Lübeck, Lübeck, Germany.
Motivation: Gegenstand dieser Arbeit ist ein diskret-kontinuierlicher
Ansatz zur mathematischen Modellierung des zellulären Wachstums
eines Glioms in Abhängigkeit von der Nährstoffkonzentration, der
extrazellulären Matrix (EZM) und der Matrix-degradierenden Enzyme
(MDE).
Um den hypoxischen Arealen, die Gehirntumore aufweisen, Rechnung
zu tragen und aktuelle Ergebnisse aus in-vitro-Versuchen zu integrieren,
haben wir das momentane Standardmodell um einen zusätzlichen
Faktor ergänzt: Wir steuern die Migration der Tumorzellen zusätzlich zu
Chemotaxis
und
Haptotaxis
durch
eine
Variation
der
Diffusionskoeffizienten in Abhängigkeit von der berechneten
Sauerstoffkonzentration.
Methoden: Bei den betrachteten In-vitro-Experimenten wurden humane
Gliomzellen auf einer mit Agar beschichteten Platte ausgesät. Innerhalb
von fünf Tagen formen diese intrinsisch sogenannten Sphäroide aus.
Diese werden in eine Collagenmatrix implantiert, worin sie innerhalb
weniger Stunden anfangen zu sprießen. D.h. einzelne Zellen fangen an,
das Sphäroid zu verlassen und, in Abhängigkeit von der vorhandenen
Sauerstoffkonzentration, innerhalb der Matrix zu migrieren. Dabei
besteht die EZM aus humanem Collagen versetzt mit Fibronectin.
Unser in-silico Modell basiert auf einem System von partiellen
Differentialgleichungen.
Der
kontinuierliche
Modellierungsanteil
beschreibt die Mikroumgebungskomponente bestehend aus der
Konzentration der Nährstoffe, der MDE und der Dichte der EZM. Die
Lösungen dieser Gleichungen werden mit Hilfe der Finite-ElementeMethode bestimmt.
Die raum-zeitliche Invasion der Tumorzellen wird durch die
Diskretisierung einer Reaktions-Diffusions-Gleichung beschrieben. Diese
besteht zum einen aus einem Diffusionsterm, der die zufällige Migration
repräsentiert, als auch aus Termen, die Haptotaxis- bzw. ChemotaxisImpulse aufgrund der EZM bzw. Nährstoffe beschreiben. Beide steuern
die direkte Migration. Der diskrete Ansatz ist stochastischer Natur, da
eine deterministische Herangehensweise die experimentellen in-vitroBeobachtungen nicht adäquat widerspiegeln kann. Für die
Diskretisierung
benutzen
wir
das
Standard-Finite-DifferenzenVerfahren: Vorwärtsdifferenzen in der Zeit und zentrale Differenzen im
Raum. Die resultierenden Koeffizienten geben Wahrscheinlichkeiten für
die Tumorzellbewegungen an. Für die Beschreibung der Diffusion wird
nicht standardmäßig ein Koeffizient benutzt, sondern die Werte werden
in Abhängigkeit von der Nährstoffkonzentration gesteuert. Die oben
beschriebenen
in-vitro-Versuche
haben
gezeigt,
dass
bei
Sauerstoffmangel Tumorzellen ein invasiveres Verhalten zeigen als
unter normoxischen Bedingungen (siehe Abb. 1a)). Um diese
Beobachtung in die Modellierung einzubinden, verwenden wir einen
variierenden Diffusionskoeffizienten für die Migration der Krebszellen
beim Auftreten von Hypoxie:
85
which will be used in future work to render each organ for a 3D-Hybrid
Model using NURBS (Non-Uniform Rational B-Spline).
4. Conclusion: MONEYPENNY and JAMES qualify both as digital
whole body atlas was well as bases for a 3D-Hybrid Model.
wobei k > 1.
Ergebnisse: Die Resultate der in-vitro und in-silico-Versuche sind in
Abb. 1a) bzw. b) dargestellt. Die Entfernung wird mit einer Geraden von
der Mitte des Sphäroids zu den 1 % am weitesten migrierten Zellen
gemessen. Dabei entspricht eine Invasion von 100 % dem
Anfangsstadium, d.h. der Abstand von der Mitte des Tumorsphäroides
bis zum Rand.
Abb. 1: Die Invasion der Tumorzellen bei Hypoxie und Normoxie: a) invitro, b) in-silico-Ergebnisse.
Fazit und Ausblick
In diesem Beitrag wurde ein kontinuierliches, stochastisches Modell
vorgestellt, das ausschließlich die frühe Invasion des Tumors in
Wechselwirkung mit Sauerstoff betrachtet. Hierzu wurde ein
entscheidendes, experimentell bestätigtes Verhalten individueller
Tumorzellen vorgestellt und integriert, nämlich die Abhängigkeit der
Invasionsgeschwindigkeit
der
Tumorzellen
von
der
Sauerstoffkonzentration.
Diese
wichtige
Erkenntnis
kann
in
Wachstumssimulationen eingebracht werden, um bessere Prognosen
über den Verlauf des Tumors auf einer mikroskopischen Ebene
schätzen zu können.
Die Integration weiterer Prozesse, wie Nekrose und Proliferation, sowie
die Interaktionen mit dem Immunsystem sind wesentlicher Bestandteil
unserer aktuellen Forschung.
P02.03
Development of “MONEYPENNY” and “JAMES”, new whole body
atlases for organ recognition with regard to PET data
1
1
1
2
G. Sereinig , B. Matthias , L. Thomas , M. Gerald ;
1
2
AIT-Wien, Vienna, Austria, TU-Vienna, Vienna, Austria.
1. Aim: In contrast to Computed Tomography (CT) molecular imaging
like Positron- Emission tomography (PET) does not produce anatomic
information like the organs’ shape and boundaries. However a semiautomatic procedure to be used on PET data can assign the displayed
activity distribution to specific organs by means of body atlases.
Moreover such an atlas preferably serves as basis for the development
of a non-rigid Hybrid phantom, combining smooth and adjustable
surfaces with high spatial discretisation. For this purpose the adult
female voxel phantom “Ella“, and the male voxel phantom “Duke” from
the Virtual Family are edited with the help of clinical whole body CT data
sets and thus a new female body atlas “MONEYPENNY” and a male
body atlas “JAMES” is created.
2. Materials and methods: MONEYPENNY and DUKE were voxelized
with Virtual Family Tools and exported into a raw file with regard to
different spatial resolutions. The best resolutions are 0,5x0,5x0,5mm
voxels with 12 individual blocks that correspond to ten files in raw format
which were saved with a total of 2400 slices. The organs and tissues
were segmented from these raw images using the image processing
software 3D-Doctor, eradicating the error pixels such as uncertainties in
body boundary and organ overlaps. In order to create the new phantom
the manipulated data was realigned with three anonymised clinical body
CT data sets. This re-adjusting was performed in a slice to slice way,
using the Pocket Atlas of Sectional Anatomy to identify the respective
top and bottom slice of each organ within the CT- Data set. Then the
boundaries and the septa of the relevant organs were altered in order to
fit the CT-data by means of polygon chains and saved in raw format.
3. Results: The new phantoms have 77 organs which were saved in
three ways (raw file, bitmap, tiff) and the
Information stored in a txt file (pixel value, organ name, resolution). The
two models have an even higher spatial resolution than the Virtual
Family(0.1x0.1x0.1mm) and contain no error pixels. Six organs (bladder,
liver, prostate, lung, thyroid, kidney) have detailed internal organ walls.
For the future use as a body atlas the backbone and the pelvis can be
used as coordinate system. The detailed segmented solution with all
body organs is prepared in a raw file format solution with only 60MB
86
P02.04
Experimental identification of the transfer function of piezoelectric
elements of medical ultrasound probes
K. Nounga Kamwa, A. Poelstra, H. Overhoff;
University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany.
1. Introduction: The application of ultrasound for image guided
implantation of brachytherapy catheters is still limited due to poor image
contrast and artifacts. The advantages of ultrasound - real time modality
to relatively low costs - may find more entrance in the clinical practice if
more advanced imaging techniques could handle these drawbacks.
In pulse echo imaging a piezoelectric ultrasound transducer is used to
transform an electrical signal produced by some driving circuit into an
acoustical wave (transmit) and vice versa (receive). Many advanced
ultrasound imaging techniques rely onto knowledge of the
electromechanical (transmit) and mechanoelectrical (receive) dynamics
of the piezoelectric elements.
Objective: Development of an experimental identification of piezo
transmit and receive dynamics
2. Materials and Method: N piezoelectric crystals with (unknown)
and mechanoelectrical receive
electromechanical transmit
z-space transfer functions are connected to a multi-channel ultrasound
system (OPEN system, LeCoeur Electronique, France), which controls
frequency modulated as well as phase coded time-discrete emit signals
(resp.
and measures receive signals
(resp.
).
The wave propagation from transmit piezo i to receive piezo j is modeled
and consists of distilled, degassed water and a circular planar
by
reflector with a diameter of 80 mm in a distance of 8 mm to the
transducer surface. For data acquisition, only one piezo i transmit at a
receive the reflection signal. The output
time and all piezos,
is modeled by a discrete linear ARMA model
signal
.
and
The orders m and n and the parameters
minimize the least squares sum of the output error
.
The transfer function of the complete system
are chosen to
is then given by
.
Its poles (zeros) are assigned to the piezo’s i-th transmit (j-th receive)
transfer functions by selection of those poles (zeros), which occur in all
pole maps (zero maps) of the i-th transmit (all
pole
maps (zero maps) of the j-th receive) piezo. Poles (zeros) are identified
to be identical, if their inter-map distance is < 0.1. The identification is
possible only for
piezo and
because the
number of unknowns
grows slower than the number of
.
equations
Generally it is hypothesized that a piezo’s transmit and receive transfer
function is identical. With our experimental set up this can be controlled.
3. Result: The transfer functions of all subsystems could be identified
and the results controlled by using different input signals.
For least squares errors < 5%, the piezo transmit and receive transfer
function’s orders show a range of m<=2, n<=4. Parameter identification
is quite similar to the
yielded, that the transmitter transfer function
receiver transfer function
.
4. Conclusions: Small piezo transmit function model orders are
acceptable, because they
reflect an oscillating system. Ongoing work is addressed to the
development of more sophisticated image reconstruction algorithms
yielding artifact reduced images.
P02.05
Potentielle Effekte von stenosierten bikuspidalen Aortenklappen
auf die Entstehung und Ausbreitung von Dissektionen der Aorta
Ascendens
1
1,2
3
4
D. Fechtig , H. Schima , H. Kuhlmann , J. Aiginger ;
2
Center for Med. Physics and Biomed. Eng., Vienna, Austria, Ludwig3
Boltzmann-Cluster for Cardiovasc. Surg, Vienna, Austria, Department of
4
Fluid Mechanics and Heat Transfer, Vienna, Austria, Institute of Atomic
and Subatomic Physics, Vienna, Austria.
1
Zahlreiche klinische Studien belegen durch das gemeinsame gehäufte
Auftreten einen kausalen Zusammenhang zwischen stenosierten
bikuspidalen Aortenklappen und DeBakey Typ I Aortendissektionen.
Neben
histo-pathologischen
Faktoren
werden
eventuelle
biomechanische Gründe als potentielle Auslöser dieser Krankheit
angenommen. Mit Hilfe von numerischen CFD Simulationen
untersuchten wir potentielle Effekte des durch die Klappenstenose
veränderten Strömungsfeldes auf die Aortenwand.
Methoden: Das pulsatile Geschwindigkeitsfeld der Blutströmung durch
die menschliche Aorta in Ruhe und unter Arbeitsbedingungen wurde
numerisch für normale Klappen und verschiedene Typen von
bikuspidalen Aortenklappen zusammen mit 3 verschiedenen Größen von
Aortendissektionen simuliert. Ein steifes Modell des links-ventrikulären
Ausflusstrakts, der jeweils offenen Klappe und des Aortenbogens wurde
durch ein Netz mit ca. 1.5Mio Zellen diskretisiert. Das Blut wurde als
Newtonsche Flüssigkeit approximiert, Turbulenz wurde mit Hilfe des
Transition-SST-k-ω-Solvers von ANSYS® modelliert. Neben globalen
hemodynamischen Observablen wurden die Geschwindigkeit des BlutJets, Wanddruck, Wandschubspannung und der Staudruck zwischen
den bereits dissektierten Arterienlamellen berechnet und visualisiert.
Anschließend wurde basierend auf den berechneten Druckwerten unter
Ausnutzung des generalisierten Hooke´schen Gesetzes mit Hilfe einer
inkrementellen Prozedur eine vergleichende Festigkeitsüberprüfung der
Aortenwand und unter Zuhilfenahme von elementaren hydrostatischen
Überlegungen die potentielle Dissektionskraft auf die verschieden
großen Lamellen durchgeführt um diese dann im Kontext mit
experimentellen Materialversagenswerten diskutieren zu können.
Resultate:
Normale
Aortenklappen
erreichen
systolische
Blutgeschwindigkeiten von ca. 1.2m/s, Wanddrücke von 117mmHg und
Staudrücke welche allesamt nicht größer als 8mmHg werden,
stenosierte bikuspidale Aortenklappen mit einem ellipsoiden
Öffnungsverhältnis von 21:6mm hingegen belasten die Wand der aorta
ascendens proximal des truncus brachiocephalicus mit systolischen Jets
von bis zu 4.4m/s, Wanddrücken um 160mmHg und Staudrücken bis zu
45mmHg. Das Resultat im bikuspidalen Fall sind pulsatile Kraftspitzen
von 0.288N auf die delaminierten Wandschichten mit einer Fläche von
2
48mm . Im Falle normaler Aortenklappen fallen die Kraftspitzen mit
0,051N deutlich geringer aus.
Ein Vergleich zwischen quantitativen und qualitativen Zusammenhängen
zwischen physiologischen und pathologischen Wandspannungen mit
belastungsinduzierten Ermüdungserscheinungen der Aortenwand lässt
ein signifikant erhöhtes Dissektionsrisiko der Aortenwand im
bikuspidalen Fall vermuten.
Schlussfolgerungen: Die durch stenosierte bikuspidale Aortenklappen
verursachte erhöhte Strömungsgeschwindigkeit des Blutes führt zu
signifikant erhöhten Wanddrücken und Staudrücken, was mit hoher
Wahrscheinlichkeit die Ursache, zumindest aber einen begünstigenden
Faktor bei Bildung und Vergrößerung von Dissektionen der aorta
ascendends darstellt.
P02.06
Validation of gold standard dataset using 3D/3D intensity-based
registration
1
1
2
2
1
S. Ardjo Pawiro , C. Gendrin , P. Markelj , F. Pernus , M. Figl , C.
1
1
3
3
1
Weber , H. Bergmann , M. Stock , D. Georg , W. Birkfellner ;
1
Center for Medical Physics and Biomedical Engineering, Medical
2
University of Vienna, Wien, Austria, Laboratory of Imaging
Technologies, Faculty of Electrical Engineering, University of Ljubljana,
3
Ljubljana, Slovenia, University Clinic of Radiotherapy, Division of
Medical Radiation Physics, Medical, Wien, Austria.
Introduction and objectives: Image registration is necessary to guide
the radiotherapy treatment unit and its main application is the correction
1,2
of the patient position in the treatment room. Since an image guided
radiotherapy (IGRT) system is a tool to ensure target localization during
radiation delivery, it is mandatory that a painstaking validation process of
individual components of the system is carried out in order to study how
3,4
single errors in the IGRT system affect the overall accuracy.
A prerequisite for an objective validation of an IGRT system component
like a 2D/3D registration algorithm is the standardization of the validation
process which includes the design of validation data sets, the definition
of corresponding ground truth and its accuracy, the validation protocol,
3,4
and the design of a validation metric. The aim of our work is to
investigate the validity of a 2D/3D gold standard dataset using the 3D/3D
intensity-based image registration.
Materials and Methods: The pig head was supplied by the Department
of Biomedical Research, Medical University of Vienna (MUV). Image
acquisition took place within 24 hours after the pig was sacrificed. Using
the screws, the holder was possible to tap threads in the bony skull of
the pig. The replaceable spherical markers of 10 mm diameter were
made of steel, aluminum, and polytetrafluoroethylene (PTFE). A plastic
hollow sphere was filled with olive oil injection for MR - compatible
markers. The image dataset was taken in a 64-slice Computerized
Tomography (CT), cone beam CT (CBCT) with small and big field of
view (FOV), and Magnetic Resonance (MR) with T1, T2 and proton
density (PD) weighted .
We segmented and calculated the centroid of the markers using
ANALYZE 10.0 (AnalyzeDirect Inc., Kansas City, KN). The fiducial
registration error (FRE) was calculated using root mean square (RMS)
distance between two fiducial points of the pair modalities. Furthermore,
the target registration error (TRE) was calculated using RMS distance
fiducial markers of an normalized mutual information (NMI) registration
method. This method was implemented in ANALYZE 10.0.
Results: Table 1 shows that the FRE of point-based 3D/3D registration
was in the range of 0.36 - 1.55 mm. The TRE was computed by
implementation the 3D/3D intensity-based NMI algorithm for fiducial
markers. The results showed a good correlation in the range of 0.63 3.85 mm.
Conclusions: The validation gold standard data set using the 3D/3D
intensity-based registration shows that the gold standard data set
accurate and valid for 2D/3D and 3D/3D image registration.
Table 1. The comparison of FRE for 3D/3D point - based registration
and TRE for the fiducial centroids when using an intensity based
registration algorithm (normalized mutual information). FRE is given in
the first line, while TRE can be found below in brackets.
CT
CBCT
CBCT small MR T1 MR T2 MR PD
(in big FOV(in
FOV(in mm) (in mm) (in mm) (in mm)
mm)
mm)
0.656
1.44
1.32
CT
0.43 (1.14) 0.36 (0.63)
(0.79)
(1.70) (3.85)
CBCT big
0.62
1.55
1.25
0.52 (0.72)
FOV
(3.19)
(2.42) (3.02)
CBCT
0.65
1.49
1.31
small FOV
(1.13)
(2.29) (3.42)
1.26
1.16
MR T1
(1.88) (1.50)
1.50
MR T2
(2.31)
MR PD
-
P02.07
Beam forming induced needle artifacts in 2-D ultrasound imaging
S. Schmiemann, A. Poelstra, H. Overhoff;
University of Applied Sciences Gelsenkirchen, Gelsenkirchen, Germany.
Introduction: B-mode ultrasound image guidance of brachytherapy
catheters relies on geometrically correct catheter visualization. B-mode
images are gray value coded illustrations of received pulse wave
echoes. Most image reconstruction algorithms misplace reflector
locations which are off the wave’s focus. We found, that within
ultrasound images the cross sections of thin needles are represented by
curved artifacts. To avoid misinterpretation of such images, the artifacts
can potentially be removed by signal processing if their origin is well
understood.
Objective: Derivation of that part of the artifact geometry which is
already explainable with the help of linear sound wave propagation in a
homogenous medium and a point reflector as a model of a thin needle
hit in cross section
Methods: 3-D ultrasound volumes of needles and catheters of different
materials placed in a basin filled with milk are acquired with the help of a
3-D ultrasound transducer. The artifacts in the acquired images are
compared with artifacts, which are simulated by use of the software tool
Field II.
For sinusoidal wave trains and for impulse waves, the transmit and
receive beam forming/ focusing is simulated. The simulation of the
impulse wave propagation models the real signal processing sequence,
i.e. the application of a matched filter to the received sinusoidal wave
train and so its transformation to an impulse.
The simulation is performed for a linear array transducer with N
piezoelectric elements, which are used synchronously in transmit and
receive. For each of the N^2 transmit and receive pairs the wave
propagation for reflectors located in (1) the focus point and (2) at off87
focus points was simulated. For focusing, element groups were excited
in which the amplitudes of the elements were weighted differently
(apodization). The cross section of a thin needle was modeled by a point
reflector. The dimensions of reflector misplacement were determined,
and the relation of the curved artifacts to the different kinds of
apodization was analyzed.
Results: The simulation yields axial dimensions of artifacts similar to
those observed in the cross sectional ultrasound images. Interferences
of sinusoidal wave trains lead to internal structures of the artifacts. Fig. 1
shows an original B-mode image (left), the simulated artifacts for a
sinusoidal wave train (middle) and an impulse wave (right). Accordingly,
the curved artifacts are a result of transmit and receive beam forming
strategy for linear sound wave propagation.
The images taken with the ultrasonic device do not show internal
structures. So a comparison to pulse waves as excitation signals can be
drawn. Thus, the ultrasonic device uses a matched filter for image
reconstruction.
Conclusion: The major part of needle cross sectional artifacts can be
explained by linear wave propagation and transmit/ receive beam
forming. Therefore, these artifacts can potentially be removed by image
processing in order to improve the precision of image reconstruction. If
internal artifact structures are observed in images, matched filtering
could be an appropriate part of such image processing, but acquires the
knowledge or assumption of the form of the transmit signal.
88
Poster 03: Freie Themen
P03.01
Modellierung von Tumorwachstum: Über stabile explizite und
implizite numerische Verfahren zur Lösung eines
Anfangsrandwertproblems
1
1,2
1,2
1,3
1
A. Mang , A. Toma , S. Becker , T. A. Schütz , T. M. Buzug ;
1
Institut für Medizintechnik, Universität zu Lübeck, Lübeck, Germany,
2
Kompetenzzentrum für Medizintechnik, Lübeck, Germany,
3
Graduiertenschule für Informatik in Medizin und Lebenswissenschaften,
Lübeck, Germany.
Motivation: Die vorliegende Arbeit diskutiert einen bildbasierten Ansatz
zur Modellierung der raum-zeitlichen Dynamik primärer Hirntumoren.
Ziel einer mathematischen Modellbildung ist es beispielsweise ($i$)
Hypothesen über den Verlauf der Krankheit zu prüfen oder ($ii$) ein
generisches Werkzeug bereitzustellen, um die Interpretation
medizinischer Bilddaten zu unterstützen.
Die raum-zeitliche Dynamik der Population kanzeröser Zellen auf
Gewebeebene, welche wir in der vorliegenden Arbeit exklusiv
betrachten, wird typischerweise über ein Anfangsrandwertproblem
(ARWP) erklärt. Zu dessen Lösung wird in nahezu allen publizierten
Arbeiten ein Euler-Cauchy-Verfahren (ECV) verwendet (siehe [1,2]).
Dieses besitzt den Nachteil der Existenz einer oberen Schranke für die
maximale zeitliche Schrittweite (CFL Bedingung). Damit wird das
Verfahren für große Simulationszeiträume ineffizient. Eine gängige
Strategie, diese Restriktion zu umgehen, ist die Verwendung impliziter
Verfahren.
Methoden: Die Modellierung der raum-zeitlichen Dynamik kanzeröser
Zellen wird über ein Anfangsrandwertproblem formuliert. Wir nehmen an,
dass die raum-zeitliche Ausbreitung der Zellen phänomenologisch
hinreichend gut durch passive Diffusion und Proliferation abgebildet
werden kann. Um die experimentell bestätigte, entlang der
Nervenbahnen gerichtete, Ausbreitung der Tumorzellen abzubilden,
integrieren wir Diffusions-Tensor-Daten in das Modell. Für die
Modellierung der Zellvermehrung beleuchten wir drei verbreitete
Ansätze: exponentielles, logistisches und Gompertz'sches Wachstum.
Insgesamt ergibt sich eine parabolische Differentialgleichung zweiter
Ordnung mit variablen Koeffizienten, deren Linearität vom gewählten
Reaktionsterm abhängt.
Zur Lösung des ARWP stellen wir, neben dem expliziten (ECV) und dem
impliziten Euler-Verfahren (IE), und dem $\theta$-Verfahren ($\theta
\in\{0.25,0.5, 0.75,0.9\}$, Crank-Nicholson (CN) für $\theta = 0.5$), ein
neuartiges, kürzlich vorgeschlagenes [3], stabiles explizites EulerVerfahren (ECV$^{\star}$) vor. Die Stabilität des Schemas wird durch
eine Unterteilung des beliebig großen Zeitschritts in geschickt gewählte
Unterschritte erreicht. Das verblüffende Resultat dieser Strategie ist,
dass bis zu 50% der Unterschritte die CFL-Bedingung verletzen. Damit
erreichen wir die Effizienz impliziter Verfahren bei algorithmischer
Komplexität des ECVs. Zur Lösung des für die impliziten Schemata
entstehenden linearen Gleichungssystems verwenden wir effiziente
Krylow-Unterraum-Verfahren. Eine numerische Fehler-Analyse erfolgt
über die Berechnung der 1-Norm des Abstandes zwischen numerischer
und Fundamentallösung eines vereinfachten Modellproblems. Darüber
hinaus leiten wir für das ECV eine obere Schranke für die Schrittweite in
der $\ell^2_h$-Norm her.
Resultate: Der Trend des numerischen Fehlers ist exemplarisch in der
Abbildung dargestellt. Gezeigt ist die 1-Norm des Abstandes zwischen
numerischer
und
Fundamentallösung
für
verschiedene
Simulationszeitpunkte. Darüber hinaus demonstrieren wir mittels des
nicht vereinfachten Modellproblems den Einfluss unterschiedlicher
Modellparameter und die Effizienz der vorgestellten Verfahren.
Fazit
Der wesentliche Beitrag der vorliegenden Arbeit liegt in ($i$) der
Diskussion impliziter Strategien zur Lösung des ARWP, ($ii$) der
Bestimmung einer oberen Schranke für die Schrittweite des ECVs bei
vorliegendem Modellproblem und ($iii$) der Einführung einer, kürzlich
auf dem Gebiet der Bildverarbeitung vorgeschlagenen Strategie zur
Stabilisierung des ECVs. Wir haben gezeigt, dass dieser Ansatz
bezüglich des numerischen Fehlers und der Effizienz impliziten
Verfahren gleichzusetzen ist. Im Zentrum unserer derzeitigen
Forschungsbemühungen
steht
neben
der
algorithmischen
Weiterentwicklung eine Individualisierung der Modellierung. Hiermit
erhoffen wir uns Vorhersagen über den Krankheitsverlauf in individuellen
Patienten generieren zu können.
Referenzen
[1] Hogea et al., SIAM J Sci Comput 30:3050-3072(2008)
[2] Rockne et al., Phys Med Biol 55:3271-3285(2010)
[3] Grewenig et al., LNCS 6376, pp. 533-542, 2010
P03.02
On classifying biological networks using structural features of the
underlying network topology
L. A. Mueller;
UMIT - Institute for Bioinformatics and Translational Research, Hall in
Tirol, Austria.
Classical univariate feature approaches for the analysis of biological
data have shortcomings in modeling the dynamic and multidimensional
nature of biological data. Network based approaches have been proven
to provide a better solution for modeling and analyzing biological data.
To analyze networks structurally, various topological network descriptors
have been developed. Moreover, such descriptors capture different
structural features of networks and they have been proven useful to
characterize molecular networks.
The aim of our my thesis is to investigate different groups of topological
networks descriptors on their classification performance on biological
networks. Moreover, we adapt existing methods or develop new
methods to tackle this challenge. In a first study, we inferred correlation
networks from different mircoarray studies related to prostate cancer
data with two different stages (cancer vs. benign). Clustering the
networks using structural features, that are captured by topological
network descriptors, lead to two clusters with all cancer networks
clustered together. These findings demonstrate that we were able to
identify cancer specific features only by analyzing the underlying network
topology. To perform our investigations, we developed an package for
the open source programming environment R, called QuACN, that
contains a selection of topological network descriptors. Compared to
commercial software tools, e.g., Dragon, it is freely available and open
source. Moreover, it is the only available software package that contains
sophisticated measures, such as the parametric graph entropy. The
package is under constant development and new groups of network
measures will be added permanently. Thus, the package offers the
possibility to investigate different groups of network measures in terms of
their ability to classify biological data. Therefore, we applied them to a
set of molecular networks, representing drug-like compounds that were
categorized positive or negative by the Ames test for mutagenicity. It
turned out that it was not possible to classify this data with a meaningful
classification performance. A structural analysis of the molecular
networks lead us to the conclusion that it is necessary to consider
different structural features, to perform a meaningful classification. This
can be achieved by combining different topological network measures
from different groups. We applied this concept within the following study.
Here, we present an approach to classify the three domains of life using
topological information of the underlying metabolic networks. To
combine measures of two different groups (non-entropy-based and
entropy-based) we perform a feature selection to estimate the structural
features with the highest classification ability in order to optimize the
classification performance. It turned out that a meaningful classification
was possible by only using 5 structural features. Moreover, it turned out
that the group of entropy-based descriptors outperformed the group of
non-entropy-based measures, in terms of classification performance.
For future work we plan to adapt existing concepts of topological network
descriptors, in terms of classification performance on biological
networks. Furthermore we plan to develop new descriptors to tackle new
challenges in network biology.
P03.03
Meta-analytische Re-Analyse dreier aktueller Datensätze
1,2,3
1,2,3
2
1,3
2
W. Huf , K. Kalcher , G. Pail , R. Boubela , L. Pezawas , C.
1
1
2
3
2
Windischberger , E. Moser , M. Friedrich , P. Filzmoser , S. Kasper ;
1
Exzellenzzentrum Hochfeld-MR, Zentrum für Medizinische Physik und
Biomedizinische Technik, Medizinische Universität Wien, Wien, Austria,
2
Abteilung für Biologische Psychiatrie, Universitätsklinik für Psychiatrie
und Psychotherapie, Medizinische Universität Wien, Wien, Austria,
3
Institut für Statistik und Wahrscheinlichkeitstheorie, Technische
Universität Wien, Wien, Austria.
Einleitung: Die Bedeutung meta-analytischer Methoden ist zunehmend
in Steigen begriffen, einerseits aufgrund der rapide ansteigenden Zahl
von Primärstudien, andererseits aufgrund der vermehrten Durchführung
von Multi-Center-Studien. In beiden Fällen ist das adäquate Poolen der
Evidenz unter Beachtung der Varianzunterschiede zwischen Studien
bzw. Zentren von großer Bedeutung. Ziel der vorliegenden Studie war
die detaillierte Re-Analyse dreier publizierter Datensätze aus dem
Bereich der Psychopharmakologie und Identifikation potentieller
Probleme und statistischer Fallen. In einem zweiten Schritt sollte ein
großer, frei verfügbarer fMRT-Datensatz (1000 Functional Connectomes
Project; Biswal et al. 2010) analysiert werden (siehe Abstract Boubela et
al. 2011).
Methodik: Drei meta-analytische Datensätze, publiziert von Geddes et
al. (2008), Kirsch et al. (2009) sowie Sneed et al. (2008), wurden reanalysiert. Anschließend wurden die gefundenen Resultate und
Interpretationsmöglichkeiten mit den publizierten Ergebnissen und
Interpretationen verglichen. Im speziellen wurde auf die Untersuchung
des Einflusses verschiedener Modelle (Fixed Effect vs. Random Effects,
Meta-Regression) und unterschiedlicher Effektgrößen (HAMD, Cohen's
d) Wert gelegt. Weiters wurde die Bedeutung von Konfidenzbändern und
Verfahren der Modelldiagnostik für geeignete Interpretation der
Resultate untersucht.
Resultate: Die vorliegende Studie identifizierte einige weitverbreitete
methodologische Probleme. Als besonders bedeutsam wurden
Effektgrößenwahl sowie Modellwahl identifiziert, da in diesen beiden
Stufen der jeweiligen Studie das Risiko des Data-Dredging besonders
hoch ist. Weiters wurden Probleme bei Datenaggregation und Mangel an
Subgruppen-Analysen festgestellt. Besonders bei Modellen im Bereich
der Meta-Regression zeigte sich, dass häufiger Verletzungen der
Modellannahmen vorlagen. Zuletzt identifizierte die vorliegende Studie in
einigen Bereichen der in Betracht gezogenen Studien einen Mangel an
Transparenz, der die Möglichkeiten für Re-Analysen einschränkte.
Diskussion: Das hohe Evidenzniveau, das Meta-Analysen generell
zugesprochen wird - sei es einerseits in Bereichen wie der
Psychopharmakologie, andererseits im Bereich der Neuro-Bildgebung erfordert, dass entsprechend auch die Schwächen meta-analytischer
Synthese beachtet werden (Huf, Kalcher et al. 2010). Zu diesem Zweck
wurde im Rahmen der vorliegenden Studie eine Checkliste mit zehn
Punkten entwickelt, die eine zügige Bewertung der Qualität von MetaAnalyen fördern soll. Letzteres erscheint von steigender Bedeutung, da
in letzter Zeit - auch im Bereich der Neuro-Bildgebung - immer häufiger
Meta-Analysen publiziert werden (Karg et al. 2011), deren Resultate den
Resultaten vorhergehender Meta-Analysen - zumindest teilweise widersprechen.
Literatur
Biswal, B.B. (2010) 'Toward discovery science of human brain function',
PNAS, vol. 107, pp. 4734-4739.
Geddes, J.R. (2009), 'Lamotrigine for treatment of bipolar depression:
independent meta-analysis and meta-regression of individual patient
data from five randomised trials', British Journal of Psychiatry, vol. 194,
pp. 4-9.
Huf, W. and Kalcher, K. (2010), 'Meta-Analysis: Fact or Fiction? How to
Interpret Meta-Analyses', World Journal of Biological Psychiatry, in
press.
Karg, K. (2011), 'The serotonin transporter promoter variant (5HTTLPR), stress, and depression meta-analysis revisited', Archives of
General Psychiatry, published online January 3.
Kirsch, I. (2008) 'Initial severity and antidepressant benefits: a metaanalysis of data submitted to the food and drug administration', PLoS
Medicine, 5:e45.
Sneed, J.R. (2008), 'Design makes a difference: a meta-analysis of
antidepressant response rates in placebocontrolled versus comparator
trials in late-life depression', American Journal of Geriatric Psychiatry,
vol. 16, pp. 65-73.
89
P03.04
Radioactive 32P-implants for low-dose-rate (LDR) brachytherapy of
benign stenoses of the urethra and the common bile duct
1
2
2
3
3
3
W. Assmann , M. Bader , C. Stief , J. Schirra , C. Schäfer , A. Wagner ,
4
3
R. Sroka , B. Göke ;
1
2
Fakultät für Physik, LMU München, Garching, Germany, Urologische
Klinik, Klinikum Großhadern, LMU München, München, Germany,
3
Medizinische Klinik II, Klinikum Großhadern, LMU München, München,
4
Germany, Laserforschungslabor, Klinikum Großhadern, LMU München,
München, Germany.
Objective: LDR brachytherapy can modulate wound healing avoiding
hyperproliferation and benign stenosis of endogenous tubular structures
such as bile duct or urethra.
31
Material and Methods: Polymer foils filled with up to 10% P have
been developed and tested for their radiation resistance during neutron
31
32
activation of P to P, wash-out behavior and dose distribution. The
32
therapeutic range of the pure electron emitter P was measured to be
only a few millimeters delivering minimal dose to the healthy tissue
surrounding the treated stenosis. Dose distribution was confirmed by
Geant4 simulation.
Within a feasibility study on 36 rabbits and 30 swine, a benign stenosis
was induced endoscopically by laser or heat in the urethra and the
common bile duct, respectively. Usual implants (catheter, stent) were
32
equipped with radioactive P foils and inserted after balloon dilatation to
locally irradiate the wounded stenosis tissue. The animals were
sacrificed 4 weeks after brachytherapy, and the target tissue was
examined by histology.
32
Results: The novel radioactive P-foil allows for the usual stent or
catheter application with additional LDR-brachytherapy to prevent
stenosis formation. Animal tests applying
0, 15 and 30 Gy within 7 days have not shown adverse dose effects, but
evaluation of the influence on stenosis formation is not yet finished.
32
Conclusion: This newly developed P-foil offers a simple and save way
to irradiate very precisely tissue with a dose up to some 60 Gy, therefore
irradiation of benign as well as malign proliferation could be possible.
Radiation protection can be simply assured with 10 mm thick plexiglass
devices. The LDR-brachytherapy seems to be better matched to
modulate the wound-healing process than short-term irradiation.
Acknowledgement: This work was carried out with the support of
Bayerische Forschungsstiftung (712/06).
P03.05
Untersuchung struktureller Änderungen bestrahlter Zahngewebe
1
2
W. Fränzel , R. Gerlach ;
1
Martin-Luther-Universität Halle, Institut für Physik, Halle/Saale,
2
Germany, Martin-Luther-Universität Halle,Klinik für Starhlentherapie,
Halle/Saale, Germany.
Einleitung: Die Therapie von im Kopf-Hals-Bereich befindlichen
Tumoren erfolgt hauptsächlich durch eine Bestrahlung mit
hochenergetischer Röntgenstrahlen (6MV) mit wirkenden Dosen von 60
bis 70 Gy. In Studie [1] wurde gezeigt, dass die mechanischen
Eigenschaftsparameter bereits nach einer Dosis von einigen Gray durch
den direkten Strahlungseffekt stark reduziert werden. In der
vorliegenden Studie werden die Härte und der elastische Modul
verglichen
mit
Ergebnissen
aus
RAMAN-spektroskopischen
Untersuchungen mit dem Ziel, die strahlungsinduzierten mechanischen
Veränderungen chemisch zu erklären.
Durchführung: Nichtdurchgebrochene dritte Molare wurden nach der
Extraktion entsprechend den üblichen Methoden präpariert und in Testund Kontrollgruppen eingeteilt. Für alle Proben wurden die
Ausgangswerte der mechanischen Parameter durch Nanoindentierung
(NanoindenterII, MTS Knoxville) und die RAMAN-Spektren mit einem
FT-RAMAN Spektroskop RFS 100 (Bruker Optik GmbH) im Bereich von
-1
200 bis 3000 cm bestimmt. Anschließend erhielten die Zahnproben
eine kumulative Röntgenbestrahlung, erzeugt durch einen SIEMENS
Beschleuniger Linac MD-2. Nach jeder Bestrahlungsstufe wurden die
mechanischen Eigenschaften und das RAMAN-Spektrum gemessen.
Aus dem Vergleich zu den Ausgangswerten erschließt sich hiermit die
Möglichkeit die strahlungsinduzierten Änderungen in den Spektren mit
dem mechanischen Verhalten zu vergleichen.
Zwischen allen Untersuchungsschritten wurden die Zahnproben in
neutraler physiologischer Lösung gelagert.
Ergebnisse: Die mechanischen Eigenschaften verringern sich drastisch
nach den ersten Bestrahlungen, wie bereits in [1] beschrieben. Die
berechneten Sprödigkeitsparameter steigen mit den applizierten
Bestrahlungsdosen. Dies stimmt überein mit der visuellen Feststellung
steigender Rauheit und zunehmender Auslösung mineralischer
Bestandteile aus den Geweben.
Im nichtbestrahlten Zustand gemessene RAMAN-Werte für die
Kristallinität sind vergleichbar mit denen aus [2]. Durch die Bestrahlung
90
steigen die Kristallinitätswerte bis zu einer Dosis von 3…5 Gy, danach
verringern sie sich wieder auf den Anfangswert.
Der Parameter für die Karbonat-Substitution (B-Typ), ist für Schmelz und
Dentin verschieden, aber konstant, unabhängig für den gesamten
Bestrahlungsverlauf.
Das Verhältnis des mineralischen zum organischen Anteil verringert sich
bis zu einer Dosis von 3 Gy für Dentin. Mit weiterer Zunahme der
Bestrahlungsdosis steigt das mineralisch-organische Verhältnis wieder
bis zum Anfangswert an. Da der organische Peak im Spektrum fehlt,
kann für Schmelz keine Aussage zum organisch-mineralischen Anteil
getroffen werden.
Schlussfolgerung: Der Zusammenhang zwischen der starken
Verminderung der mechanischen Eigenschaften infolge einer
Bestrahlung mit hochenergetischer Röntgenstrahlung nach ersten
Bestrahlungsdosen und dem Ansteigen der Sprödigkeit konnte letztlich
nicht genau durch RAMAN-Spektroskopie als vermuteter Verlust der
Wechselwirkung mineralischer und organischer Anteile ähnlich der
Dekarboxylation geklärt werden. Insbesondere der Widerspruch
zwischen festgestellter Sprödigkeit und gemessener Kristallinität ist nicht
zu erklären. Für weitere Untersuchung muss eine sensitivere Methode
eingesetzt werden.
[1] Fränzel W., Gerlach R.: The irradiation action om human dental
tissue by X-rays and electrons - a nanoindenter study. Zeitsch Med Phys
19 (2009), Nr. 19, 5-10.
[2] Tramini P., Pelissier B., Valcarcel J., Bonnet B., Maury L.: A Raman
Spectroscopic Investigation of Dentin and Enamel Structures Modified
by Lactic Acid. Caries Res 34 (2000). Nr. 3, 233-240.
P03.06
Innovative Ansätze zur Therapie der altersbedingten
Makuladegeneration
1
2
3
A. Stemberger , J. Neuwirth , S. Binder ;
Krankenanstalt Rudolfstiftung / Ärztliche Direktion / Stabsstelle
2
Medizinphysik, Wien, Austria, Seibersdorf Laboratories, Seibersdorf,
3
Austria, Krankenanstalt Rudolfstiftung / Augenabteilung, Wien, Austria.
1
Einführung: Die altersbedingte Makuladegeneration (AMD) ist eine der
führenden Ursachen der legalen Erblindung in den Industrieländern. Die
AMD tritt in zwei Formen auf, einer nicht neovaskulären, sogenannten
atrophischen oder trockenen Form und einer neovaskulären,
sogenannten feuchten Form. Patienten, die an der neovaskulären,
feuchten Form der Makuladegeneration leiden, stellen die größte
Gruppe von Patienten dar, die sehr rasch erblinden. Im Gesamten
betrifft die altersbedingte Makuladegeneration etwa 20% aller über
70jährigen Patienten.
Lasertherapie und Chirurgie haben sich als uneffizient für die feuchte
Form der Makuladegeneration erwiesen. Die derzeitig häufigsten
angewandten Therapien sind eine photodynamische Therapie der
Neovaskularisation, bzw. intravitreale anti-VEGF Medikamente
©
©
©
(Avastin , Macugen , Lucentis ), um eine Regression der
Neovaskularisation zu bewirken. Diese neuen Medikamente müssen
circa in einem Abstand von etwa 4 bis 6 Wochen appliziert werden, was
sowohl die Patienten als auch die verabreichenden Abteilungen stark
belastet.
Derzeit wird in Studien erprobt, diese aggressive Form der
Makuladegeneration einerseits mittels Anwendung umschlossener
radioaktiver
Stoffe,
andererseits
unter
Verwendung
einer
Röntgentherapieanlage einer strahlentherapeutischen Behandlung
zuzuführen, um den Krankheitsverlauf zu stoppen.
Material und Methode: Bei der nuklearmedizinischen Therapie kommt
ein Afterloadersystem zum Einsatz, wobei als Nuklid Sr-90/Y-90 mit
einer Maximalaktivität von 555 MBq verwendet wird. Im Rahmen eines
operativen Eingriffes wird der Strahler für eine wohldefinierte
Bestrahlungsdauer über der Läsion positioniert.
Im Gegensatz dazu kommt beim radiologischen Ansatz ein nicht
invasives stereotaktisches Strahlentherapiesystem zum Einsatz,
welches eine fixe Nennspannung von 100 kV und einen Fokus von 1
mm aufweist.
Beide Ansätze sind grundsätzlich als positiv zu bewerten, wobei
aufgrund der gegebenen Systemunterschiede vor allem in Bezug auf
den Strahlenschutz Bedacht genommen werden muss.
Ergebnis und Diskussion: In beiden international durchgeführten
Studien wurden grundsätzlich neue Therapiewege erfolgreich erprobt,
die dazu führen sollen, dass aufgrund einer einmaligen Strahlentherapie
die Neovaskularisationen zum Stoppen gebracht werden können.
Indikationen für diese neuartigen Therapieformen werden chronische
Patienten mit feuchter Makuladegeneration sein, da bei einer
Nichtbehandlung
durch
diese
Systeme
mit
einer
akuten
Verschlechterung der Sehleistung zu rechnen ist.
Poster 04: Bildgebung und
Bildverarbeitung
P04.01
Entwicklung eines Mausphantoms für dosimetrische
Untersuchungen am µCT
1
1
2,3
2,3
2
3
M. Lüpke , C. Böhm , T. Rodt , C. von Falck , G. Stamm , J. Borlak ,
2
1
F. Wacker , H. Seifert ;
1
2
Tierärztliche Hochschule Hannover, Hannover, Germany, Medizinische
3
Hochschule Hannover, Hannover, Germany, Fraunhofer Institut für
Toxikologie und Experimentelle Medizin, Hannover, Germany.
Einleitung: In der Tumorforschung werden häufig Mäuse als Modelltiere
eingesetzt. Zur Reduzierung der Versuchstieranzahl werden
Verlaufskontrollen mit bildgebenden Verfahren durchgeführt. Wird
ionisierende Strahlung (z.B. µCT, µPET) zur Bildgebung verwendet, ist
bei mehrfacher Anwendung mit einer nicht unerheblichen Dosis zu
rechnen.
Eine
Dosisminimierung
der
verschiedenen
Untersuchungsprotokolle ist daher anzustreben. Deshalb wurde für die
Dosismessungen ein Mausphantom entwickelt, das mit TLD bestückt
werden kann.
Material und Methoden: Das Mausphantom besteht aus einem
Plexiglasstab von 15,5 cm Länge und 1 cm Durchmesser, und einem
Plexiglaszylinder mit zentrischer Bohrung für den Plexiglasstab. Der
Plexiglaszylinder ist 10 cm lang und hat einen Außendurchmesser von 3
cm. Der Plexiglasstab verfügt über 14 Bohrlöcher (Länge 9 mm,
Durchmesser 2 mm) im Abstand von jeweils 1 cm, die als Aufnahme für
jeweils ein TLD dienen.
Für die Dosismessungen wurden stäbchenförmige TLD des Typs TLD100H (Thermo) mit den Abmessungen von ca. 1 mm Durchmesser und
6 mm Länge verwendet. Die bestrahlten TLD wurden mit einem TLDReader vom Typ 5500 (Thermo) ausgewertet. Die Kalibrierung wurde
mit einem Irradiator (Modell 2210, Thermo) durchgeführt. Die
Anschlussmessung erfolgte mittels der CT-Kammer DCT10-RS mit dem
Dosismessgerät
Solidose
400
(Fa.
Scanditronix),
die
im
Plexiglaszylinder des Phantoms positioniert werden konnte. Die
Ergebnisse der Phantommessungen wurden mit TLD-Messungen in
Mauskadavern verglichen. Die TLD-Messungen im Phantom wurden mit
jeweils neun TLD durchgeführt und sechsmal wiederholt. In bzw. auf den
vier verwendeten Mauskadavern wurden jeweils 14 TLD befestigt. Die
korrekte
Positionierung
der
Mauskadaver
wurde
im
Durchleuchtungsmodus überprüft.
Die µCT-Untersuchungen wurden mit einem GE Locus µCT der Firma
GE Healthcare durchgeführt. Für den Dosisvergleich wurde mit einem
Untersuchungsprotokoll gearbeitet, in dem die Röhrenspannung 80 kV,
der Röhrenstrom 450 µA, die Anzahl der Projektionen 360 (auf 200°)
und die räumliche Auflösung 94 µm (isotrop) betrug. Die axiale
Feldlänge betrug 42 mm.
Ergebnisse: In Abb. 1 sind die gemessenen Werte im Mausphantom
dargestellt. Etwa in der Mitte des ca. 4 cm langen Nutzstrahlenfeldes ist
das Dosismaximum deutlich zu erkennen. Die mittlere Dosis beträgt
etwa 150 mGy. Im Streustrahlenbereich ist die Dosis erheblich kleiner
und beträgt etwa 15 mGy. Alle gemessenen Dosiswerte sind gut
reproduzierbar.
Abb. 1 Gemessene Dosiswerte innerhalb des Phantoms.
Im
Durchleuchtungsmodus
beträgt
die
Dosisleistung
im
Nutzstrahlbereich etwa 25 mGy/min. Die Positionierung einer Maus
dauert etwa 2,5 Minuten, so dass die Positionierung zu einer
zusätzlichen Dosis von ca. 63 mGy führt. In Abb. 2 sind die Dosiswerte
der Mauskadavermessungen dargestellt. Diese setzten sich aus den
Dosen während der Untersuchung und der Positionierung zusammen.
Im Nutzstrahlenfeld (Thorax) ergibt sich eine mittlere Dosis von 205
mGy.
Abb.
2:
Mittlere
Dosen
mit
Standardabweichungen
der
Mauskadavermessungen.
Diskussion: Die TLD-Messungen im Mausphantom stimmen sehr gut
mit den Messungen im Mauskadaver überein. Das Phantom erweist sich
als
geeignet
für
Dosismessungen
unterschiedlicher
Untersuchungsprotokolle im µCT. Die Dosiswerte von 200 mGy pro
Untersuchung im Nutzstrahl bedeuten, dass in Abhängigkeit von der
Untersuchungsfrequenz relativ hohe Dosen zu erwarten sind, weshalb
ein Einfluss auf das Tumorgeschehen im Tier nicht auszuschließen ist.
P04.02
Kriterien für die Bewertung von Segmentierungsalgorithmen für
PET-Daten
1
2
3
1
2
S. Weichert , R. Haase , D. Zips , H. Böhme , W. Enghardt , N.
2
Abolmaali ;
1
Fakultät Informatik/Mathematik, HTW Dresden, Dresden, Germany,
2
3
OncoRay, TU Dresden, Dresden, Germany, Klinik und Poliklinik für
Radioonkologie, Universitätsklinikum Carl Gustav Carus, TU Dresden,
Dresden, Germany.
Ziel: Die Positronen-Emissions-Tomografie (PET) wird im wachsenden
Maße für die Definition von Zielvolumina in der Strahlentherapie
eingesetzt. Die automatische Segmentierung dieser PET-Daten ist
wünschenswert, da subjektive Eindrücke der bewertenden Ärzte zu
unterschiedlichen Ergebnissen führen können. Zum Vergleich solcher
Volumina sind viele Methoden bekannt, jedoch hat sich bis jetzt kein
Standard zur Auswertung etabliert. In dieser Studie wurden daher
verschiedene Methoden zur Quantifizierung der Konturübereinstimmung
verglichen.
Methoden:
[18F]-Fluorodesoxyglucose-PET-Datensätze
von
20
Patienten wurden mittels zweier Algorithmen automatisch segmentiert:
Eine iterative Methode nach Nehmeh et al. [1] und das Verfahren der
kommerziellen „Rover”-Software (ABX, Radeberg, Deutschland), das auf
lokalen Schwellwerten basiert [2]. Die resultierenden Konturen wurden
verglichen und folgende Größen ermittelt: Jaccard-Index, Dice-Index,
Konturabstand, mittlerer Konturabstand, symmetrischer mittlerer
Konturabstand, Klassifizierungsfehler, Volumenfehler, Volumendifferenz,
Sensitivität und Falsch-Negativ-Rate, Spezifität und Falsch-Positiv-Rate.
Resultate: Die vorläufigen Ergebnisse sind in Tabelle 1 angegeben. Der
Jaccard-Index zeigte hohe Variabilität mit den meisten Werten zwischen
50 % und 70 %. Selbst bei dem Konturpaar mit der besten
Übereinstimmung laut den meisten Werten (Abb. 1) erreichte dieser
lediglich 79,67 %. Zum Vergleich zeigt Abb. 2 ein Paar von Konturen mit
ebenfalls
hohem
Jaccard-Index
(68,84
%),
der
gute
Konturübereinstimmung suggeriert. Dem widerspricht jedoch ein
symmetrischer mittlerer Konturabstand von 1,73 mm. Der Dice-Index
verhielt sich ähnlich dem Jaccard-Index, allerdings mit einem geringeren
Gradienten generell höherer Werte. Die Sensitivität lag mehrmals bei
100 %, während Spezifität diesen Wert nie erreichte. Der Volumenfehler
reichte von -8,1 % bis 48,02 %, mit Volumendifferenzen von bis zu 95,9
ml. Der symmetrische mittlere Konturabstand zeigte Größen von 0,52
mm bis 6,55 mm.
Schlussfolgerung: Die Tatsache, dass sowohl der symmetrische
mittlere Konturabstand, als auch die Volumendifferenz metrische
Ergebnisse liefern, qualifiziert beide Verfahren für einen anschaulichen
Konturvergleich. Der Jaccard-Index hingegen erwies sich für die
untersuchte Fragestellung als ungeeignet, da hier bereits kleinste
Volumenunterschiede zu großen Veränderungen führen können.
Sensitivität und Spezifität sind nützliche Ergänzungen, um die
Schnittmenge von Segmentierungen zu quantifizieren.
Referenzen
[1] S.A. Nehmeh et al., Med. Phys. 36 (2009) 4803
[2] F. Hofheinz et al., J. Nucl. Med. 48 (2007) 1709
91
unterschiedlichen RIT zu erklären.
Zitate: 1.Kletting P, Kiryakos H, Reske SN, Glatting G. Analyzing
saturable antibody binding based on serum data and pharmacokinetic
modelling. Phys Med Biol. accepted 26.10.2010.
2.Glatting G, Kletting P, Reske SN, Hohl K, Ring C. Choosing the
optimal fit function: Comparison of the Akaike information criterion and
the F-test. Med Phys. 2007;34:4285-4292.
P04.04
ImageJ-Plugin zur Berechnung der örtlichen Auflösung in
rekonstruierter SPECT Schicht nach NEMA NU 1:2007
1
2
1
1
2
W. Lechner , F. König , K. Poljanc , J. Aiginger , T. Leitha ;
1
Technische Universität Wien / Atominstitut, Wien, Austria,
2
Sozialmedizinisches Zentrum Ost - Donauspital / Abteilung für
nuklearmedizinische Diagnostik und Therapie, Wien, Austria.
P04.03
Radioimmuntherapie mit Re-188-markiertem Anti-CD66 Antikörper:
Kann Äquivalenz der prätherapeutischen und therapeutischen
Biokinetiken angenommen werden?
1
2
2
2
1
P. Kletting , M. Andreeff , A. Strumpf , J. Kotzerke , S. N. Reske , G.
1
Glatting ;
1
2
Universität Ulm, Ulm, Germany, Universitätsklinikum TU Dresden,
Dresden, Germany.
Ziel: In der Radioimmuntherapie (RIT) wird oft eine prätherapeutische
Dosimetrie durchgeführt, um für jeden Patienten die passende Dosis zu
bestimmen. Dabei wird üblicherweise davon ausgegangen, dass die
Bioverteilung der Therapie, der Bioverteilung der prätherapeutischen
Messung entspricht. Bei der RIT mit 90Y-markiertem anti-CD66
Antikörper
wurde
anhand
der
Aktivitäts-Zeit-Verlaufs
der
Serummessungen ein Unterschied zwischen der prätherapeutischen und
therapeutischen Bioverteilung festgestellt, der höchstwahrscheinlich auf
die Absättigung der Antigene zurückzuführen ist (1). In dieser Studie
wird mit einer ähnlichen Methode auch die RIT mit 188Re-markiertem
anti-CD66 Antikörper entsprechend untersucht.
Methoden: Prätherapeutische und therapeutische Zeitaktivitätskurven
der 188Re-markierten anti-CD66 Antikörper (jeweils über 5 min - 48 h
p.i.) des Blutes von 9 Patienten mit akuter Leukämie wurden mit 4
Varianten eines pharmakokinetischen Modells untersucht (1). Die
Parameter des Modells wurden an die Messwerte angepasst und
anhand des korrigierten Akaike Informations-Kriteriums (AICc) (2) wurde
das empirisch am meisten gestützte Modell ausgewählt. Die Modelle
unterschieden sich bezüglich der Annahme über die Immunreaktivität
der markierten Antikörper nach dem physikalischen Zerfall bzw. der
Freisetzung des Radionuklids vom Antikörper.
Ergebnisse: Die visuelle Beurteilung zeigt gute Fits für alle Modelle.
Das laut AICc am stärksten von den Daten unterstützte Modell nimmt
an, dass der Antikörper beim physikalischen Zerfall sowie beim
Freisetzen des Rheniums vom Antikörper immunreaktiv bleibt. Die
mittlere Abweichung der Flächen unter den Zeit-Aktivitätskurven
(Verweildauern) für die prätherapeutischen Messungen (3.8±1.1) h und
den therapeutischen Messungen (4.7±1.7) h liegt bei (22±8)%.
Schlussfolgerung: Anhand der Zeitaktivitätswerte des Blutes lassen
sich Unterschiede der prätherapeutischen und therapeutischen
Biokinetik feststellen. Im Vergleich zu der vorangegangenen Studie mit
90Y und 111In markiertem CD66 Antikörper (1) ist der Unterschied
deutlich geringer (Faktor 1.7 zu 1.2). Jedoch bedarf es noch der Analyse
der Ganzkörperdaten sowie Organkinetiken, um die Diskrepanz der
Ergebnisse dieser zwei nur in dem verwendeten Radionuklid
92
Einleitung: Die in der NEMA NU1:2007 „Performance Measurements of
Scintillation Cameras“ definierten Tests dienen dazu, eine gemeinsame
Basis für den Vergleich der Leistungsdaten von Geräten
unterschiedlicher Hersteller zu schaffen. Für die Ermittlung der
Ergebnisse ist eine Auswertesoftware sinnvoll. In Österreich sind von H.
Bergmann und R. Nicoletti erstellte MATLAB-Routinen weit verbreitet.
Die mangelnde Flexibilität dieser Routinen wenn sie unter der MATLABRuntime Lizenz laufen, bzw. die mangelnde Lizenzfreiheit wenn sie
unter MATLAB ausgeführt werden ließen den Wunsch nach offenen
Programmen, konkret nach Plugins für Image-J entstehen. ImageJ
[ABRA2004] ist ein in Java programmiertes, plattformunabhängiges
open source Bildverarbeitungsprogramm, das beliebig durch ebenfalls in
Java programmierte Plugins erweitert werden kann.
Als erstes Beispiel sollte die Berechnung der örtlichen Auflösung
rekonstruierter SPECT Schichten („SPECT reconstructed spacial
resolution without scatter“) umgesetzt werden.
Methoden: Für die Messung der örtlichen Auflösung rekonstruierter
SPECT Schichten wird eine SPECT-Messung dreier Punktquellen
aufgenommen und daraus transversale, sagitale und koronale Schichten
rekonstruiert.
Das erstellte ImageJ-Plugin ist in der Lage im DICOM- Format
gespeicherte Schichtaufnahmen zu laden. Die Daten stehen dann als
Stapel transversaler Schichtbilder zur Verfügung. Für die Berechnung
notwendige Werte (z.B Pixel-Spacing) und Werte die rein der
Dokumentation dienen (z.B Datum und Uhrzeit der Messung) werden
automatisch aus dem DICOM-Header geladen. Fehlende Werte können
gegebenenfalls vom Benutzer ergänzt werden.
Die automatische Berechnung der Koordinaten der Punktquellen ist von
zentraler Bedeutung, da diese notwendig für die spätere Ermittlung der
in der NEMA definierten transversalen-, sagittalen und koronalenSchichtbilder notwendig sind. Nach dem Berechnen der drei
Schichtbilder wird eine region of interest (ROI) um jede Punktquelle
gelegt. Von dieser ROI werden jeweils zwei zueinander orthogonale PSF
ermittelt.
Bevor die Halbwertsbreiten der einzelnen PSFs berechnet werden
können, muss entsprechend der NEMA für jede PSF das Maximum
jener Parabel ermittelt werden, die sich aus dem Parabelfit des
Maximalwerts der PSF und dessen beiden Nachbarwerten ergibt. Der
halbe Wert des Maximalwerts dieser Parabel wird dann zur Berechnung
der Halbwertsbreite verwendet. Abschließend werden die 18
verschieden Halbwertsbreiten, nach NEMA NU 1:2007, zu fünf mittleren
Halbwertsbreiten zusammengefasst. Alle ermittelten Daten werden in
einem Ausgabefenster dargestellt (siehe Abbildung 1).
Die Ergebnisse des ImageJ-Plugins wurden mit den Ergebnissen des
bisher verwendeten MATLAB-Programms verglichen.
Ergebnisse:
Die
Abweichungen
des
ImageJ-Plugins
zum
Referenzprogramm betragen im mittel 0.03% ± 0,25% (Mittelwert ±
1Standardabweichung). Dies lässt sich durch die unterschiedlichen
Methoden zur Bestimmung der Schichten der beiden Programme
erklären.
Literatur:
[ABRA2004] Abramoff, Magalhaes P. J., Ram S. J.: Image Processing
with ImageJ. Biophotonics International 11 (2004): S. 36-42
P04.05
Simulationsbasierte Evaluierung der Methode des „steilsten
Gradienten“ zur Schätzung der Gewebeperfusion aus dynamischen
CT-Daten
1
2,3
4
1
G. Brix , S. Zwick , F. Kiessling , J. Griebel ;
Bundesamt für Strahlenschutz, Abteilung für medizinischen
2
Strahlenschutz, Oberschleißheim, Germany, Universitätsklinikum
3
Freiburg, Abteilung für medizinische Physik, Freiburg, Germany, DKFZ,
Abteilung für medizinische Physik in der Radiologie, Heidelberg,
4
Germany, Universitätsklinikum Aachen, Abteilung für experimentelle
molekulare Bildgebung, Aachen, Germany.
1
Die Gewebeperfusion kann mit der Methode des steilsten Gradienten
(MSG) aus dynamischen kontrastverstärkten (DCE) CT-Daten berechnet
werden. Ausgehend vom Fick‘schen Prinzip kann man zeigen, dass die
Perfusion gegeben ist durch die maximale Steigung der Gewebekurve
dividiert durch den Maximalwert der arteriellen Inputfunktion (Abb. 1).
Voraussetzung ist allerdings, dass bis zu dem Zeitpunkt, zu dem die
Steigung (der Gradient) der Gewebekurve ihr Maximum erreicht, der
Abstrom des applizierten Kontrastmittels (KM) aus der terminalen
Strombahn vernachlässigt werden kann. Ist diese Bedingung nicht
erfüllt, so wird die Perfusion unterschätzt. Ziel unserer Arbeit war es, die
Genauigkeit der MSG anhand von simulierten Datensätzen systematisch
zu untersuchen.
Hierzu wurden unter Verwendung einer gemessenen arteriellen
Inputfunktion (AIF, Zeitauflösung 0,72s) 9600 Gewebekurven für 4
Rauschniveaus, 6 Abtaststrategien und 40 Kombinationen der
relevanten physiologischen Gewebeparameter (Perfusion, kapillare
Permeabilität und relative Verteilungsvolumina des intravasalen und
interstitiellen Raums) mittels eines etablierten Simulationsprogramm
(MMID4) berechnet. Für jeden Datensatz wurde die Perfusion ermittelt
als maximale Steigung der Gewebekurve dividiert durch den
Maximalwert der AIF. Darüber hinaus wurde für jedes „Gewebe“ der
venöse Abstrom simuliert und der daraus resultierende Fehler bei der
MSG ermittelt.
Wie erwartet lieferte die MSG systematisch zu niedrige Perfusionswerte,
wobei der Fehler mit zunehmender Perfusion und abnehmendem
Intravasalvolumen ansteigt (Abb. 2). Gefäßpermeabilität und
interstitielles Volumen haben dagegen keinen Einfluss auf die
Ergebnisse. Bei einer zeitlichen Auflösung von 0,72 s war der Fehler
kleiner als 23 %, wenn die mittlere Transitzeit der KM-Moleküle, d.h. der
Quotient aus relativem Plasmavolumen und Perfusion, größer war als 6
s. Eine Vergrößerung des Abtastintervalls und des Rauschniveaus
resultierte in einer deutlichen Abnahme der Genauigkeit (systematischer
Fehler) bzw. der Präzision (Streuung) der Schätzwerte.
Die MSG ermöglicht eine einfache und robuste Schätzung der
Gewebeperfusion. Die erreichbare Genauigkeit und Präzision ist für viele
klinische Fragestellungen ausreichend, da die mittlere Transitzeit in den
meisten Geweben, insbesondere in Tumoren, hinreichend lang ist.
Damit ist eine Grundvoraussetzung für die generische Rechtfertigung
der MSG unter strahlenhygienischen Gesichtspunkten erfüllt.
P04.06
Inherent heart movement uncertainties in radiotherapy estimated
from a heart-gated CT study
1
2
3
1
1
R. Abdelhamid , A. Witteler , C. Vockelmann , A. Farrag , A. Khalifa , K.
2
4
Matthias , A. Block ;
1
Clinical Oncology and Nuclear Medicine Department, Assuit University,
2
Egypt, Department of Diagnostic Radiology, Klinikum, Dortmund,
3
Germany, Department of Diagnostic Radiology, Ev. Clinic, Muehlheim,
4
Germany, Institute for Medical Radiation Physics and Radiation
Protection, Klinikum, Dortmund, Germany.
Introduction: In modern radiotherapy exist some approaches for
minimizing heart exposure during the treatment of left sided breast
cancer, e.g. deep inspiration breath-hold techniques or respiration-gated
radiotherapy. However in both techniques the heart is normally
functioning. The aim of this study was to estimate the magnitude of
uncertainties caused by this inherent heart movement.
Methods: In the period from 2008-2011; 20 patients, all females aging
between 40-60 years, were randomly enrolled in our study. For each
patient, a diagnostic heart gated CT was performed, and shots in both
coronal and transverse planes were used to compare both the antero93
posterior as well as the lateral amplitudes of heart movement during
inspiration. The minimum and maximum measurements of the heart
distance from the chest wall in the lateral direction were correlated with
the parallel antero-posterior measurements at the equivalent time points
during inspiration, and vice versa, to check for a possible constant
pattern for heart movement that could be used as a model for a free
respiration radiotherapy protocol.
Results: The absolute minimum amplitude in the transverse planes
ranges from 21,9 to 42,1 mm and the maximum one is between 25,7 and
45,9 mm. In the corresponding time points in the coronal planes, the
absolute minimum amplitude is between 21,9 and 65,1 mm, whereas the
maximum is between 21,9 and 61,9 mm. However, the ratio of both
maximum and both minimum amplitudes lies only between 0,8 and 2,0.
For analyzing the dynamic behavior the movement amplitude is an
important step. We found in coronal planes a movement amplitude
ranges from 0,1 to 7,3 mm, whereas in the transverse planes we got a
movement amplitude ranges from 2,4 to 6,9 mm. Using the coronal CT
measurements as reference points, the maximum distances correlated
only weakly and insignificantly (p=0,14, Pearson’s r=0,34, confidence
level 95%), while the minimum distances correlated moderately, yet
significantly, (p=0,03, Pearson’s r=0.48, confidence level 95%). Using
the axial CT measurements as reference points, the maximum distances
correlated moderately and insignificantly (p= 0,065, Pearson’s r=0,42,
confidence level 95%), and similarly did the minimum distances (p=
0,07, Pearson’s r=0,41, confidence level 95%).
Conclusions: Although these preliminary results are far from useful
regarding determination of a constant heart movement pattern, we found
a weak to moderate correlation between the amplitudes in the coronal
and transverse planes. As a result of this, we have to take into account
an uncertainty less than one to twice in radiotherapy planning. This is the
limitation in precision for heart sparing during deep inspiration breathhold techniques or respiration-gated radiotherapy.
P04.07
Ist CTDI100 bei modernen Multislice CT-Scannern noch
anwendbar?
1
2
3
2
1
J. M. Voigt , D. Danova , P. B. Noel , J. T. Heverhagen , M. Fiebich ;
Institut für Medizinische Physik und Strahlenschutz, Technische
2
Hochschule Mittelhessen, Gießen, Germany, Klinik für
Strahlendiagnostik, Universitätskliniken Gießen und Marburg, Standort
3
Marburg, Marburg, Germany, Abteilung für Radiologie, Technische
Universität München, München, Germany.
1
Einleitung: Die Computertomographie zählt zu den wichtigsten
Schnittbildverfahren der radiologischen Diagnostik. Im Jahre 2008 waren
8 % der Röntgenuntersuchungen in Deutschland CT-Untersuchungen.
Der Anteil dieser an der kollektiven effektiven Dosis betrug jedoch 60%
[4]. Dieser Sachverhalt belegt eindrucksvoll, wie wichtig ein solides
Dosimetriekonzept im Bereich der Computertomographie ist.
Grundlage der CT-Dosimetrie ist der Computertomographische
Dosisindex (CTDI). Dieser wurde 1981 von Thomas B. Shope [1]
entwickelt und ist noch bis heute gültig. Shope beschrieb eine
Messgröße, die als das Integral der Dosis entlang einer, der
Rotationsachse des CT-Scanners parallelen, Linie definiert ist. Da eine
unendliche Integration messtechnisch unmöglich ist, wurde der CTDI
normativ als ein Integral von 100 mm Länge festgelegt (CTDI100):
Mit:
: Luftkerma an der Stelle ,
: Totalkollimation
Der CTDI100 stellt dabei einen über die Totalkollimation gemittelten Wert
der Luftkerma im entsprechenden CTDI-Phantom dar und dient als
Grundlage zur Abschätzung der Patientendosis [3]. Bei großen
Totalkollimationen werden von einer 100 mm langen Messkammer nicht
alle Streubeiträge erfasst. Dies bedeutet in Konsequenz, dass die
Patientendosis unterschätzt wird. Boone beschrieb 2007 [2] Dosisprofile
in Abhängigkeit der Totalkollimation. Die Effizienz des CTDI100, die sich
daraus ableiten lässt, liegt bei einer Totalkollimation von 50 mm im
zentralen Einschub des 32 cm Körperphantoms nur noch knapp über 60
%. Bei der Abschätzung der Patientendosis werden somit knappe 40 %
der Exposition nicht erfasst. In dieser Arbeit wurde die Eignung des
CTDI100 überprüft indem bei gleichen Aufnahmeparametern CTDI300
bestimmt wurde.
Material und Methoden: An klinischen CT-Scannern der in Deutschland
führenden Hersteller wurde bei gleichen Untersuchungsparametern
CTDI100 und CTDI300 bestimmt und die Ergebnisse verglichen. Die
Messungen wurden sowohl im Kopf- als auch im Körperphantom
durchgeführt.
Ergebnisse: Bereits bei einer relativ kleinen Totalkollimation von 28,8
mm des Somatom Definition wird der CTDIvol um 18 % im Bodyphantom
unterschätzt. Für sequenzielle Kopfuntersuchungen bietet das Somatom
Definition eine maximale Totalkollimation von 14,4 mm. Selbst bei dieser
wird der CTDIvol um 11 % unterschätzt.
94
Diskussion: Die Messung des CTDI mit einer 300 mm langen
Messkammer liefert genauere Werte. Bei immer weiter steigenden
Totalkollimationen (Toshiba Aquillion One: 160 mm) stößt diese Art der
CTDI-Messung ebenfalls an ihre Grenzen. CTDI300 ist eine sehr gute
Methode um auf konventionelle Art weiterhin Dosimetrie an modernen
CT-Scannern zu betreiben. Für Cone-Beam-CT und dezidierte CTScanner mit mehr als 100 mm z-Ausdehnung müssen jedoch neue
Ansätze in der CT-Dosimetrie gefunden werden.
P04.08
Spatial resolution of proton tomography: impact of air gap between
patient and detector
1,2
1
1
U. Schneider , M. Hartmann , J. Besserer ;
1
2
Hirslanden Radiotherapie AG, Aarau, Switzerland, Universität Zürich,
Vetsuisse Fakultät, Zürich, Switzerland.
Purpose: Proton radiography and tomography was investigated since
the early 1970s because of its low radiation dose, high density resolution
and ability to image directly proton stopping power. However, spatial
resolution is still a limiting factor. In this study the impact of an air gap
between detector system and patient on spatial resolution was studied.
Methods: Spatial resolution of proton radiography and tomography is
governed by multiple Coloumb scattering (MCS) of the protons in the
patient. In this report we employ Monte Carlo simulations of protons
traversing a 20 cm thick water box. Entrance and exit proton coordinates
were measured to improve spatial resolution. The simulations were
performed with and without a 5 cm air gap in front of and behind the
patient. Loss of spatial resolution due to the air gap was studied for
protons with different initial angular confusion.
Results: It was found that spatial resolution is significantly deteriorated
when a 5 cm air gap between the position sensitive detector and the
patient is included. For a perfect parallel beam spatial resolution
worsens by about 40%. Spatial resolution is getting worse with
increasing angular confusion and can reach 100%. Figure 1 shows the
spatial resolution in a water tank placed between the dashed lines. The
solid line represents the situation without air gap and the dotted line with
5 cm air gap for an angular confusion of 40 mrad.
Conclusions: When proton radiographies are produced by measuring
the entrance and exit coordinates of the protons in front of and behind
the patient the air gap between the detector and the patient can
significantly deteriorate the spatial resolution of the system by up to
100%. An alternative would be to measure in addition to the coordinates
also the exit and entrance angles of each proton. With the knowledge of
the air gap size a image reconstruction without loosing spatial resolution
could be possible.
Figure 1: Spatial resolution as a function of depth. The water tank was
placed between the dashed lines. The solid line represents a coordinate
measurement without an air gap (at positions 5 and 25 cm) and the
dotted line including an 5 cm air gap (position measurement at 0 and 25
cm).
Poster 05: Strahlenschutz
P05.01
Diagnostische Referenzwerte für Radiopharmazeutika für Kinder
und Erwachsene - ein Statusbericht
1
2
3
4
4
J. H. Bröer , U. Eberlein , C. Vandevoorde , P. Santos , M. Bardiès , K.
3
2
1
Bacher , M. Lassmann , D. Nosske ;
1
2
Bundesamt für Strahlenschutz, Oberschleißheim, Germany, Universität
3
Würzburg, Würzburg, Germany, Universiteit Gent, Gent, Belgium,
4
INSERM, Nantes, France.
Ziel: Im Rahmen des EU-Projekts PEDDOSE.NET wurden nationale
und internationale Organisationen identifiziert, die sich mit der
Dosimetrie von Radiopharmazeutika beschäftigten. Die Empfehlungen
dieser Organisationen für in Abhängigkeit vom Gewicht zu
verabreichende Aktivitäten von Radiopharmazeutika (diagnostische
Referenzwerte (DRW)) sowie die zugrundeliegenden Daten,
biokinetischen Modelle und Rechenmodelle wurden erfasst und
bewertet.
Methode: Die in Frage kommenden nationalen und internationalen
Organisationen waren teilweise bereits bekannt oder wurden mit Hilfe
des Anhangs von UNSCEAR 2008 identifiziert. Ein Fragebogen wurde
erstellt
zu
den
DRW,
verwendeten
Dosiskoeffizienten,
Empfehlungen/Vorschriften für die Verwendung von Hybridsystemen
(z.B. PET/CT), die prätherapeutische Dosimetrie und die Einschätzung
von zukünftigen Entwicklungen. Ungefähr 30 Organisationen wurden
kontaktiert und 21 antworteten und erhielten den Fragebogen.
Ergebnisse: Die nationalen DRW für Erwachsene variieren sowohl
bezüglich der Untersuchungsmethoden als auch bezüglich der
empfohlenen Aktivitäten. Diese Aktivitäten unterscheiden sich für einige
Untersuchungen
um
mehr
als
den
Faktor
zwei
(z.B.
99m
Tc-DTPA). Die DRW für Kinder
Nierenfunktionsszintigraphie mit
basieren meistens auf den Empfehlungen von Piepsz et al. aus dem
Jahr 1990 oder auf der neuen „EANM 2008 paediatric dosage card“. Da
die Empfehlungen von Piepsz et al. aber lediglich Koeffizienten
enthalten, die mit den nationalen DRW für Erwachsene multipliziert
werden, variieren die resultierenden empfohlenen Aktivitäten ebenfalls.
Bei biokinetischen Modellen und Dosiskoeffizienten verlassen sich die
meisten nationalen Organisationen auf Expertengruppen wie ICRP.
Abgesehen von der EANM empfehlen die anderen internationalen
Organisationen keine zu verabreichenden Aktivitäten, dafür aber
veröffentlichen sie Daten zu biokinetischen Modellen, Dosiskoeffizienten
und Rechenmethoden. Über die Notwendigkeit der prätherapeutischen
Dosimetrie gibt es unter den kontaktierten Organisationen keine
Einigkeit.
Schlussfolgerung: Während im Bereich der Dosimetrie die
Empfehlungen der ICRP ein weit verbreiteter Standard sind, zeigen die
nationalen DRW eine große Variation.
Danksagung: PEDDOSE.NET wird finanziell durch die Europäische
Kommission mittels des 7. Forschungsrahmenprogramms unterstützt.
P05.02
Häufigkeit von Mammographie-Untersuchungen nach Einführung
des deutschen Mammographie-Screening-Programms
E. A. Nekolla, C. M. Hahn, E. Schüler, J. Griebel, G. Brix;
BfS Bundesamt für Strahlenschutz, Neuherberg, Germany.
Einführung und Zielsetzung: Im Rahmen der routinemäßigen
Auswertung der Daten der Kassenärztlichen Bundesvereinigung (KBV)
zur Ermittlung der Häufigkeit von Röntgenuntersuchungen in der
deutschen Bevölkerung wurde augenfällig, dass die Anzahl der
Mammographien nach Einführung des Mammographie-ScreeningProgramms (MSP) im Jahre 2005 im nachfolgenden Zeitraum deutlich
zugenommen hat. Unter der Annahme, dass in Deutschland vor
Einführung
des
MSP
keine
Mammographien
zur
Brustkrebsfrüherkennung durchgeführt wurden, entspräche diese
Beobachtung den Erwartungen. Allerdings ist davon auszugehen, dass
in Deutschland bereits vor Einführung des MSP ein nichtqualitätsgesichertes inoffizielles "graues Screening" im Rahmen einer
individuellen Früherkennung stattgefunden hat. Ziel der vorliegenden
Studie war es daher, den Einfluss des MSP auf die Gesamtzahl der
Mammographien sowie auf die Anzahl der als "kurativ" abgerechneten
Mammographien - von denen mit hoher Wahrscheinlichkeit ein gewisser
Anteil dem grauen Screening zuzuschlagen ist - zu analysieren, um eine
Aussage über die Entwicklung des grauen Screenings in Deutschland
treffen zu können.
Material und Methodik: Für die Abschätzung der Häufigkeit von
Mammographien wurden die zugehörigen Gebührenziffern der KBV
(Daten bis 2009) herangezogen. Somit beziehen sich die nachfolgenden
Ergebnisse auf den kassenärztlichen ambulanten Bereich. Die KBV
95
unterscheidet
seit
Einführung
des
MSP
Ziffern
für
Früherkennungsuntersuchungen, die im Rahmen des MSP abgerechnet
werden, und Ziffern für kurative Mammographien. Um die
Vergleichbarkeit mit der Häufigkeit der als "kurativ" abgerechneten
Mammographien zu gewährleisten, die pro Seite abgerechnet werden,
wurde die Anzahl der im Rahmen des MSP abgerechneten Leistungen,
bei denen sich die Abrechnungsziffer auf die Screening-Untersuchung,
also auf beide Mammae bezieht, verdoppelt. Zur Abschätzung der
klinisch tatsächlich indizierten Mammographien wurden Zahlen zur
Brustkrebs-Inzidenz/Prävalenz sowie Empfehlungen zur Nachsorge der
S3-Leitlinie für Brustkrebs und Schätzungen zur Häufigkeit gutartiger
Mammatumoren herangezogen.
Ergebnisse: In Abb. 1 ist die absolute Anzahl einseitiger
Mammographien für die Jahre 2002-2009 dargestellt. Im Vergleich zum
Jahr 2004 (vor Einführung des MSP) hat sich in 2009 die Anzahl der
durchgeführten Mammographien insgesamt verdoppelt (Anstieg von
rund 4,4 Mio. auf rund 8,9 Mio. Mammographien einseitig). Wie erwartet
haben die im Rahmen des MSP abgerechneten Mammographien im
Zeitraum 2005-2009 deutlich zugenommen (2009: 5,6 Mio.). Gleichzeitig
ist die Anzahl der als "kurativ" abgerechneten Mammographien
zwischen 2005 und 2009 um ca. ein Viertel zurückgegangen (2005: 4,5
Mio.; 2009: 3,3 Mio.). Nach einer Analyse altersspezifischer KBV-Daten
hat die Anzahl der als "kurativ" abgerechneten Mammographien in der
Zielgruppe des MSP (50-69 Jahre) erwartungsgemäß stärker
abgenommen als in den anderen Altersgruppen. Die Anzahl der im
kassenärztlichen
Bereich
tatsächlich
indizierten
kurativen
Mammographien wurde unter sehr konservativen Annahmen auf etwa
1,8 Mio. pro Jahr abgeschätzt.
Schlussfolgerungen: Nach unserer Einschätzung handelt es sich bei
der Differenz zwischen den abgerechneten und den tatsächlich
begründeten kurativen Mammographien um Untersuchungen im
Rahmen eines grauen Screenings. Der geschätzte Anteil, der dem
grauen Screening zuzuschlagen ist, ist im Zeitraum 2005-2009 zwar
zurückgegangen (von ca. 60% auf ca. 45%), allerdings nicht in dem
Maße wie erhofft. Die Überführung des mutmaßlichen grauen
Screenings
in
ein
Programm
mit
umfangreichen
Qualitätssicherungsmaßnahmen - eines der Ziele bei Einführung des
MSP - wurde somit noch nicht erreicht.
Abb. 1: Anzahl der einseitigen Mammographien im ambulanten
kassenärztlichen Sektor für die Jahre 2002-2009.
2+
stored in the phosphor layer (BaFBr:Eu ) of the IP. Scanning the IP with
a red laser beam releases photo-stimulated luminescence radiation. The
intensity of the photo-stimulated luminescence (PSL) is proportional to
the absorbed dose up to 0.1 Gy for X-rays below 100 keV. Depending on
temperature and time between radiation and scanning, the stored energy
fades. For reducing the impact of fading, the IP is stored at 22° C - 25° C
for exactly 50 minutes between radiation and scanning. The IP will be
radiated always by using X-rays at a tube voltage of 80 kV. Conditions to
minimize image / dose fading and a calibration curve are derived.
Possible influences onto the PSL like dose rate, source surface distance
(SSD), angle of incidence, mechanical load and scanner characteristics
have been analysed. To verify the results, a comparison between CRbased measurement and thermoluminescence dosimeters (TLDs) of the
spatial dose distribution in an Alderson-Phantom has been carried out.
Results: An exponential calibration curve can be developed for a dose
between 0.0344 mGy and 63.0 mGy with a maximal relative error of 15.6
% (Figure 1). For higher doses, a steep slope of the calibration curve
results. The PSL intensity is independent of the mechanical load during
exposure, SSD and the dose rate in the used range, but it depends on
the angle of incidence and the scanner characteristics. Comparing the
dose between CR method and ionization chamber, the relative error is
less than 20 % (for an incidence angle between 30° and 90°).
Discussion and Conclusions: When working as described in materials
and methods, the fading effect can be neglected. The effect of the angle
of incidence remains the main problem and is a limiting factor. For direct
and scattered radiation, an angle correction has to be applied
separately. A reason could be the energy and path length dependent
absorption in the phosphor layer. Nevertheless spatial dose distribution
in an anthropomorphic phantom can be measured by a relative error of
less than 30 % for an incident angle of at least 17°.
P05.04
Strahlendosis des medizinisch-technischen Personals bei der
kontrastmittelverstärkten PET/CT
F. Wilke, A. Solle, L. Geworski;
Stabsstelle Strahlenschutz und Medizinische Physik, Medizinische
Hochschule Hannover, Hannover, Germany.
P05.03
CR- based method for measuring dose distribution in an
anthropomorphic phantom
1
1
2
1
C. Fässler , I. Lanzolla , P. Egli , S. Scheidegger ;
1
Centre of Applied Mathematics and Physics, Zurich University of
2
Applied Sciences, Winterthur, Switzerland, Kantonsspital Aarau, Aarau,
Switzerland.
Purpose: Clinical investigations using fluoroscopy in neuroradiology or
cardiology often leads to remarkable exposure of patients (absorbed
dose, especially at the skin and effective dose). The effective dose
cannot be measured exactly. In this study, the feasibility of assessing
spatial dose distribution and effective dose in an anthropomorphic
phantom by using imaging plates (IP) or Computed Radiography (CR)
system respectively has been investigated. Therefore, possible
influences and correction factors to get the absorbed dose have been
evaluated. Using IPs as an X-ray detector has several advantages to
commonly used dosimeters like lower prize and higher resolution in two
dimensions.
Materials and Methods: A part of the energy of ionizing radiation is
96
Einleitung: Die diagnostische Wertigkeit einer PET/CT Untersuchung
mit
einer
zusätzlich
durchgeführten
kontrastmittelverstärkten
Computertomographie (Antoch 2004) steigt bei den meisten
onkologischen Fragestellungen. Bei diesem “One Stop Shop“-Ansatz
führen die durch die Kontrastmittel-CT bedingten zusätzlichen
Arbeitsschritte wie der Anschluss der KM-Spritze oder die
Repositionierung des Patienten zu einer Erhöhung der Expositionsdauer
der nicht ärztlichen Mitarbeiter (MTA). Ziel dieser Arbeit war die
systematische Quantifizierung dieser zusätzlichen Strahlenexposition
sowie die Identifikation der relevanten Einflussfaktoren.
Material und Methodik: Im hier betrachteten Beobachtungszeitraum
von 2 Jahren wurden durchschnittlich 100 FDG-PET Untersuchungen
pro Monat mit einer applizierten Aktivität von jeweils 280 - 350 MBq
durchgeführt - zumeist mit onkologischen Fragestellungen. Das
verwendete Radiopharmakon wurde dabei von externen Anbietern
bezogen und von den MTAs für jeden Patienten separat in einer
Bleiburg unter Verwendung einer Dockingstation (Veenstra) und
entsprechenden
Spritzenabschirmungen
portioniert.
Nach
der
Applikation des FDG durch einen Arzt und einer Uptake-Phase von ca.
60 min wurden die Patienten von den MTAs für die PET Untersuchung
gelagert. Bei 50 % der Untersuchungen wurde im Anschluss ein
kontrastmittelverstärktes CT durchgeführt. Dazu wurde der noch im
Gerät liegende Patient nach Beendigung der PET-Untersuchung von der
MTA an die Kontrastmittelspritze angeschlossen.
Die beiden am PET tätigen MTAs trugen sowohl amtliche Thermolumineszenzdosimeter, direktablesbare Stabdosimeter wie auch - bei der
Portionierung des FDG - zusätzlich Fingerringdosimeter. Die Dosiswerte
der täglich abgelesenen Stabdosimeter wurden monatlich aufsummiert
und mit den Werten der amtlichen Dosimeter verglichen. Die applizierte
Aktivität wurde anhand der Patientendokumentation monatlich summiert
und mit der Kollektivdosis der Mitarbeiter korreliert. Die so ermittelte
Dosis pro applizierte Aktivität (nSv/MBq) wurde mit Werten aus der
Literatur verglichen (Seiderstad 2007 und Pakbiers 2007).
Ergebnisse: Im ersten Schritt wurde eine solide Übereinstimmung der
Dosiswerte der amtlichen Thermolumineszenzdosimeter mit denen der
Stabdosimeter festgestellt. Der Quotient aus Extremitätendosis (Hand)
und applizierter Aktivität liegt mit im Mittel 391 nSv/MBq im Durchschnitt
der in der Literatur veröffentlichten Werte. Der Mittelwert der
Ganzkörperdosis pro applizierter Aktivität liegt mit 27 nSv/MBq im
oberen Bereich der Literaturwerte. Die im Beobachtungszeitraum
ermittelten Dosiswerte erfordern mit Werten oberhalb von 6 mSv/a zwar
die Einstufung der Mitarbeiter in Kategorie A, gesetzliche Grenzwerte
werden aber nicht erreicht.
Schlussfolgerungen: Die als durchschnittlich ermittelten Werte der
Extremitätendosis zeigen, dass die ergriffenen Strahlenschutzmaßnahmen (Bleiburg, Spritzenabschirmungen) sowohl geeignet als
auch ausreichend sind. Die Hauptursache für die erhöhte Dosis der
MTAs wird durch die zusätzlichen Arbeitsschritte der Patientenlagerung
und
der
Kontrastmittelapplikation
verlängerten
Expositionszeit
begründet. Die individuellen Dosen können durch eine vermehrte
Rotation des Personals reduziert werden. Eine arbeitstägliche Kontrolle
der Dosiswerte der MTAs erscheint sinnvoll.
P05.05
Entwicklung eines Multi-Detektor Phantoms für die Dosimetrie im
CT
1
1
1
1
1
M. Liebmann , T. Lüllau , C. H. Uhlig , M. Feltes , R. H. Kareem , B.
1
2
Poppe , H. von Boetticher ;
1
2
Carl von Ossietzky Universität, Oldenburg, Germany, Klinikum Links
der Weser, Bremen, Germany.
Die Computertomographie (CT) verursacht, in zunehmendem Maße,
einen großen Anteil der medizinisch bedingten effektiven Dosis. Aus
diesem Grund spielt die genaue Erfassung dieser Exposition eine
wichtige Rolle. Zur Charakterisierung wird üblicherweise der “computed
tomography dose index” (CTDI) genutzt. Dieser wird mit Hilfe einer
Ionisationskammer in einem standardisierten Acryl-Phantom gemessen.
In dieser Arbeit wird ein neues Multi-Detektor Phantom für die CTDosimetrie vorgestellt, welches bestehende Probleme der CTDIMethode löst.
Eines dieser Probleme stellt die Länge des Standard-Phantoms von
lediglich 15 cm dar. Für die dosimetrische Charakterisierung von
Kopfuntersuchungen ist dies ausreichend, wohingegen der menschliche
Torso mehr als doppelt so lang ist. Außerdem ist die Integrationslänge
der CTDI-Ionisationskammer mit 10 cm zu kurz für große Strahlbreiten,
die in der neuen Generation von 256-Schicht-CT Scannern auftreten.
Weiterhin ist die Abschätzung von Organdosen, wie zum Beispiel Hautoder Uterusdosis, mit der CTDI Methode nur bedingt möglich.
Das entwickelte Phantom besteht aus mehreren 10 cm dicken Scheiben
aus PMMA. Diese können aneinander gereiht werden, wodurch die
Nutzung von verschiedenen Detektoren und Detektorgrößen zur
Dosisbestimmung oder CTDI Messung ermöglicht wird. Als
Detektortypen sind Thermolumineszenzdetektoren, Ionisationskammern
oder auch Dosimetriefilme zur Dosismessung an verschiedenen Orten
oder ganzen Flächen im Phantom möglich. Ebenso ist ein Einbringen
von Gel-Dosimetern in verschiedenen Formen möglich. Die für den
jeweiligen Detektor benötigte Adapterplatte lässt sich durch den Aufbau
des Phantoms aus separaten Scheiben sehr einfach wechseln. Ein
Schrittmotor realisiert die Detektorpositionierung entlang der Tischachse
und ermöglicht so eine Fernsteuerung der Messungen. Die Länge des
Phantoms wurde vorläufig auf 50 cm erhöht, kann jedoch noch weiter bis
zu typischen Torsolängen verlängert werden.
Dieses Multi-Detektor Phantom ermöglicht die Messung von
Energiedosis an verschiedenen Punkten entlang der Tischachse oder
ganzer Flächen auf einmal durch Nutzung von verschiedenen
Adapterscheiben, passend zu den spezifischen Detektorgeometrien.
Durch die größere Länge kann dieses Phantom auch in Scannern mit
großen Strahlbreiten genutzt werden.
Diese Arbeit wurde finanziert durch das Bundesministerium für Bildung
und Forschung (03NUK008A). Weitere Informationen sind unter
www.helmholtz-muenchen.de/kvsf/ zu finden.
P05.06
Personendosismessung vor der Schutzkleidung: Ergebnisse einer
Testphase im Bereich der Röntgendiagnostik
1
2
3
4
H. von Boetticher , J. Rommerscheid , J. Lachmund , W. Hoffmann , F.
2
Steinberg ;
1
Institut für Radiologie und Seminar für Strahlenschutz, Klinikum Links
2
der Weser, Bremen, Germany, Institut für Radiologie, Bremen,
3
Germany, Abt. MLO, ATLAS Elektronik GmbH, Bremen, Germany,
4
Institut für Community Medicine, Universität Greifswald, Greifswald,
Germany.
In der Röntgendiagnostik wird die mit der Filmplakette unter der Schürze
gemessene Personendosis in der Regel mit der effektiven Dosis des
Personals gleichgesetzt. Nach einer Reihe von Publikationen wird bei
diesem Vorgehen die effektive Dosis (bestimmt gemäß ICRP 103)
systematisch unterschätzt. Eine Messung vor der Schürze - wie in
mindestens 10 von 30 europäischen Staaten üblich - würde dieses
Problem vermeiden. Dies war Anlass, im Institut für Röntgendiagnostik
eines Krankenhauses in Norddeutschland mit Sondergenehmigung der
Aufsichtsbehörden für ein Jahr die Filmplakette vor der Schürze zu
tragen. Formal entspricht diese Vorgehen einer fehlerhaften Messung
der amtlichen Personendosis, wobei dann von den Aufsichtsbehörden
eine Ersatzdosis festgelegt werden muss, die wiederum auf den vor der
Schürze gemessenen Werten beruht.
Im Vorjahr der Studie wurde als Personendosis im Kalenderjahr - bei
Tragen der Filmplakette gemäß der einschlägigen Richtlinie unter der
Schürze - bei 28 beruflich strahlenexponierten Personen 25-mal ein
Wert von 0,0 mSv und 3-mal ein Wert von 0,1 mSv ermittelt. Bei Tragen
der Filmplakette vor der Schürze ergab sich für das Jahr der Studie 14mal der Wert 0,0 mSv und 16-mal ein Wert > 0,0 mSv (bei 30
Personen); die ermittelten Werte betrugen zwischen 0,1 und 16,4 mSv.
Wegen der Inhomogenität des Feldes, die darauf beruht, dass die
Schutzkleidung zwar den Rumpf, aber nicht den Kopf-Halsbereich
abgeschirmt, muss der Anzeigewert des Filmdosimeters in jedem Fall
rechnerisch korrigiert werden, um eine konservative Abschätzung der
effektiven Dosis zu erhalten. Nach Literaturangaben für die
Interventionelle Radiologie erhält man eine gute Näherung für die
effektive Dosis, wenn bei Messung unterhalb der Schutzkleidung die
Werte der Filmdosimeter mit einem Faktor von 2 bzw. 3 multipliziert, bei
Messung oberhalb der Schutzkleidung durch einen Faktor von 11 bzw. 7
dividiert werden (Faktoren für Schutzkleidung mit bzw. ohne
Schilddrüsenschutz).
Mit diesen Korrekturen ergeben sich für das Vorjahr der Studie 25-mal
effektive Dosen von 0,0 mSv und 3-mal von 0,2 mSv; beim Tragen der
Dosimeter vor der Schutzkleidung ergeben sich für das Jahr der Studie
nur 14-mal effektive Dosen von "Null". Die übrigen Werte der effektiven
Dosen liegen im Bereich von 0,01-1,5 mSv.
Das Personal zeigte sich in hohem Maße motiviert, die Filmdosimeter
vor der Schürze zu tragen. Dabei spielte insbesondere eine Rolle, dass
so
- in Bereichen, in denen man es erwarten sollte, Anzeigewerte > Null
auch tatsächlich ermittelt wurden (z. B. bei Durchleuchtungen)
- eine Abschätzung der Augendosis und der Dosis am Kopf-Halsbereich
möglich wurde
- Maßnahmen zur Optimierung des Strahlenschutzes überprüft werden
konnten
- nachgewiesen werden konnte, ob die Dosimeter tatsächlich getragen
wurden.
P05.07
Dosisbestimmung zur Evaluierung von Abschirmmaßnahmen bei
Patienten mit Seminom
1
2
K. Mair , B. Polivka ;
2
Strahlentherapie Sued, 87439 Kempten, Germany, Kantonsspital
Graubuenden, 7000 Chur, Switzerland.
1
Problemstellung: Bei Bestrahlung eines tumorös befallenen Hoden mit
hochenergetischer
Elektronenstrahlung
(Fraktionsdosis
2Gy,
Gesamtdosis 20Gy) ist darauf zu achten, die Dosisbelastung am
kontralateralen Hoden so niedrig wie möglich zu halten. Unterhalb von
200 mGy sind keine Akutnebenwirkungen zu erwarten [1] [2]. In dieser
Arbeit wird der Dosisabfall ausserhalb eines Bestrahlungsfeldes mit
Elektronenstrahlung in verschiedenen Abständen und unter Benutzung
verschiedener Bleiabschirmungen untersucht. Die Messungen wurden
mit Thermolumineszenzdosimetern (TLD) durchgeführt. Die Ergebnisse
sollen als Grundlage für die Wahl optimaler Abschirmmassnahmen zur
Schonung des kontralateralen Hodens dienen. Eine In-Vivo-Messung
am Patienten zeigt die Durchführbarkeit und die Verlässlichkeit der aus
den Phantommessungen hervorgehenden Abschirmmassnahmen.
Messungen: Der typische Durchmesser kindlicher und ausgewachsener
Hoden (ca. 1 - 3cm) erfordert eine Bestrahlung mit Elektronenenergien
von 9 bis 15 MeV. Die Grösse des Bestrahlungsfeldes liegt bei etwa 6
97
cm × 6 cm. Das Elektronenfeld wird durch einen Tubus mit einem
Bleieinsatz begrenzt.
Zunächst wurde in einem einfachen Versuchsaufbau die Dosis mit einer
Ionisationskammer abgeschätzt. Die hier gewonnen Erkenntnisse
empfehlen die Verwendung einer Bleikapsel zur Schonung des
kontralateralen Hoden, um sowohl Streustrahlung aus dem Patienten als
auch gestreute Elektronen aus dem Strahlerkopf bzw. Tubus
abzuschwächen.
Zur Quantifizierung wurde ein RW3-Phantom mit Elektronen bestrahlt
und die periphere Dosis mit TLD gemessen. Der Versuchsaufbau ist in
Abbildung 1 skizziert, die Strahlparameter sind in Tabelle 1
zusammengefasst.
Dosis
1 Gy im Dosismaximum
Energien
9, 12, 15 MeV
Feldgrösse
6 cm x 6 cm
Fokus-Oberflächen-Abstand
100 cm
Tabelle 1: Strahl- und Feldanordnungsparameter.
Abbildung 1: Versuchsaufbau zur Dosismessung mittels TLD in
verschiedenen Positionen (X) an einem RW3-Phantom mit und ohne
Bleiabschirmungen.
Ergebnisse: Unter der Bleikapsel liegt die Dosis bei Bestrahlung unter
o.g. Bedingungen bei durchschnittlich 3,3mGy. Der jeweils höchste
Dosiswert wird an Position 4 nachgewiesen, die dem Strahlerkopf am
nächsten liegt (siehe Abbildung 1). Die Fehlerabschätzung der TLDMessungen ist zunächst aus den Unsicherheiten der Messauswertung,
wie die Bestimmung von Chargen-Drift und der Kalibrierfaktoren zu
ermitteln. Durch die Unkenntnis der Strahlenqualität und -energie unter
der Kapsel ist eine Messunsicherheit von 10% realistisch.
Selbst bei der ermittelten Maximaldosis von 8 mGy (15 MeV) bei einer
Felddosis von 1 Gy darf unter Berücksichtung der Unsicherheiten
erwartet werden, dass bei einer Patientenbestrahlung mit 20 Gy
Gesamtdosis die Dosis am kontralateralen Hoden 200 mGy nicht
übersteigt. Die Messergebnisse der In-Vivo-Messungen während der
ersten Fraktion einer Patientenbestrahlung bestätigten diese Annahme.
Literatur: [1] S.J. Howell, S.M.Shalet: Spermatogenesis After Cancer
Treatment: Damage and Recovery, Journal of the National Cancer
Institute Monographs, No. 34, 2005
[2] M.D. Piroth et al.: Radiogene Hodenbelastung durch Streustrahlung
bei adjuvanten 3-D-Beckenbestrahlung nach anteriorer Resektion beim
Rektumkarzinom, Strahlentherapie und Onkologie 2003 No. 11, 3. Juli
2003
P05.08
Schutzbrillen mit optischer Premiumqualität
B. Zelzer, A. Speck, T. Eppig, A. Langenbucher;
Experimentelle Ophthalmologie - Universität des Saarlandes, Homburg,
Germany.
Motivation: Arbeiten oder Tätigkeiten im potentiellen Gefahrenbereich
chemischer Substanzen oder im Gefahrenbereich einer thermischen
oder mechanischen Verletzung müssen mit einem adäquaten
Augenschutz durchgeführt werden. Jedoch mindern neben Design und
Tragekomfort ganz besonders Abbildungsfehler in der Schutzbrille die
Trageakzeptanz
und
verursachen
Ermüdungserscheinungen,
Kopfschmerzen und Konzentrationsverlust. Grob sind Abbildungsfehler
für Schutzbrillen in den Normen DIN EN 166/167 geregelt. Hier werden
Grenzwerte für die sphärische und astigmatische Wirkung sowie die
prismatische Wirkungsdifferenz angegeben.
Die Abbildungsqualität einer Schutzbrille wird durch alle Schritte der
98
Prozesskette in der Herstellung beeinflusst. Vorgaben für das Produkt
werden realisiert, indem bei der Auslegung der Spritzgussform der
systematische Einfluss jedes Prozessschrittes berücksichtigt wird, um
letztendlich die Soll-Geometrie zu erzielen.
Ziele der Studie sind die komplette Abbildung der Prozesskette - vom
optischen Design bis hin zur Assemblierung, das Monitoring der z.B.
nutzungsbedingten Veränderungen der Spritzgussformen im Sinne der
optischen Güte und ob derzeitige Stichprobentests durch automatisierte
100%-Prüfungen (Messung und Optikdesign) zu ersetzten sind.
Ansatz: Das Optikdesign einer Arbeitsschutzbrille wird zu Beginn der
Prozesskette mit einem individuell entwickelten Programmcode unter
Berücksichtigung der optischen Aberrationen entworfen. Danach wird
bei
jedem
einzelnen
Prozessschritt
mit
Hilfe
eines
Topographiemessgerätes
(Deflektometer)
die
Optikoberfläche
vermessen. Gewonnene 3D-Datenensätze werden anschließend in
ASAP geladen und analysiert. Für Auswertungen stehen neben der an
die DIN EN 166/167 angelehnten Simulation der sphärischen,
astigmatischen Wirkung und prismatischen Wirkungsdifferenz ebenfalls
eine Wellenfrontanalyse anhand von Zernikepolynomen zur Auswahl.
Grundlage der Messergebnisse bilden insgesamt 6 Brillengeometrien,
50 gemessene Spritzgußeinsätze und 50 vermessene Schutzbrillen.
Ergebnisse: Die Wellenfrontsimulation wurde mit Hilfe der Raytracer
Oslo und Raytrace verifiziert. Es wurde gezeigt, dass sich die optischen
Kenngrößen
(sph.
ast.
Wirkung,
pris.
Wirkungsdiff.)
von
„Handmessungen“ an der optischen Bank und der Simulationen
weitestgehend decken. Im Rahmen einer Versuchsreihe zum Einfluss
minimaler Brillendickenunterschiede konnte gezeigt werden, dass es zu
keinen signifikanten Veränderungen in den Abbildungsfehlern kommt.
Bei einem Vergleich der Wirkungen nach DIN EN 166/167 und den
Aberrationen ein und derselben Brillen wurde festgestellt, dass die
relativen Verhältnisse mit guter Näherung gleich bleiben (z.b.:
sphärische Wirkung zur sphärischen Aberration).
Diskussion: Im Rahmen dieser Studie wurde eine Kontrollinstanz für
die Prozesskette einer Arbeitsschutzbrillenherstellung, bestehend aus
einem Deflektometer und der Simulationssoftware ASAP geschaffen.
Diese bildet die Basis für die Generierung eines aberrationsverminderten
optischen
Brillendesigns.
Die
genaue
Kenntnis
der
Aberrationsänderungen bei jedem Prozessschritt ermöglicht es, durch
ein gezieltes Einbringen eines "verbogenen" Optikdesigns die
Herstellung von Arbeitsschutzbrillen zu optimieren - es werden die
deterministischen Determinanten der Prozessschritte eliminiert und
ausschließlich statistische Streuungen verbleiben im Prozess. Dies trägt
zu einem besseren Tragekomfort und zu einer Unfallprävention am Auge
bei.
Poster 06: Bildgeführte Radiotherapie
(IGRT)
P06.01
Methode zur hochpräzisen Bestimmung der geometrischen
Relation zwischen Tischdrehachse und Strahlisozentrum bei einem
Linearbeschleuniger mittels EPID
R. Lösch;
Klinikum St. Marien, Amberg, Germany.
Einleitung: Die Drehachse eines konventionellen Bestrahlungstisch an
einem medizinischen Linearbeschleunigers ist idealerweise so justiert,
dass der Abstand vom Strahlisozentrum minimal ist. Bei Verwendung
des Beschleunigers zur Stereotaxie ist in [1] eine Methode
vorgeschlagen, die Position der mechanischen Drehachse des
Linearbeschleunigerstativs zur Tichdrehachse zu kontrollieren. Alternativ
hierzu implementierten wir ein Verfahren, die geometrische Relation der
Tischdrehachse zum Strahlisozentrum hochpräzise zu bestimmen.
Diese Daten können verwendet werden, um die Tischdrehachse zu
kontrollieren und ggf. nachzujustieren.
Material und Methoden: Seit geraumer Zeit wird bereits ein am
Winston-Lutz-Test angelehntes Verfahren [2] verwendet, um basierend
auf EPID-Aufnahmen die Abmessungen der Isozentrumskugel, sowie
die Abweichungen des Strahlisozentrums von einer im Raum anhand
der Lichtzeiger positionierten Metallkugel zu bestimmen. Diese
Prüfmethode ersetzt die in [3] vorgesehene filmbasierte Methode. Seit
Einführung eines Elekta-Synergy Linearbeschleunigers mit Cone-BeamCT wird das Verfahren auch verwendet, um die Abweichung des
Strahlisozentrums vom Cone-Beam-CT-Isozentrum zu bestimmen. Dazu
wird eine Gummikugel (eine Metallkugel würde zu starke GhostingEffekte im Cone-Beam-CT verursachen) per Cone-Beam-CT im
Isozentrum des Cone-Beam-CTs positioniert.
Bei dem eingesetzten Verfahren wird die Abweichung des Schattenwurfs
der Metall- oder Gummikugel von der Feldmitte eines symmetrischen
rechteckigen Feldes bei verschiedenen Tragarmwinkeln ausgewertet.
Hierzu wird das Programm Matlab verwendet. Zusammen mit der
Information der Strahlrichtung kann somit die Anordnung der
Zentralstrahlen im Raum relativ zur Metall- oder Gummikugel sehr
genau rekonstruiert werden. Dies ist in Excel realisiert worden.
Das Verfahren wurde erweitert, um die Position der Tischdrehachse
relativ zum Strahlisozentrum zu bestimmen. Dazu muss die Metall- oder
Gummikugel für die vorgenannten Messungen fest mit dem Tisch
verbunden sein. Bei einem Tragarmwinkel von 0° werden zusätzlich für
mehrere Tischdrehwinkel EPID-Aufnahmen eines rechteckigen Feldes
angefertigt. Die Auswertung des Schattenwurfs der (nun mit dem Tisch
bewegten) Metall-oder Gummikugel relativ zum ortsfesten Feld kann im
Koordinatensystem des Isozentrums als Trajektorie eines Punktes des
Tisches in einer Ebene dargestellt werden. Unter Zuhilfenahme des
Tischwinkels wird dann die Trajektorie desjenigen Punktes auf dem
Tisch bestimmt, der sich am wenigsten bewegt. Der Schwerpunkt dieser
Trajektorie ist der Durchstoßpunkt der Tischdrehachse durch die
Tischebene.
Ergebnisse: Mit dem beschriebenen Verfahren konnte die Position der
Tischdrehachse genau bestimmt werden. In der nebenstehenden
Abbildung
im
Koordinatensystem
des
Isozentrums,
dessen
(kugelförmige) Ausdehnung mit dargestellt ist, sind die direkt
beobachtete Trajektorie der Kugel (Kugelschatten), die Trajektorie des
minimal beweglichen Punktes (Fixpunkt) sowie die Drehachse
widergegeben . Die Achse wich bei uns anfänglich ca. 1mm in GunTarget-Richtung von Strahlisozentrum ab. Basierend auf den
Messungen wurde der Tisch nachjustiert. Die Abweichung wurde mehr
als halbiert.
Literatur:
[1] DIN 6875 Teil 2
[2]
R.
Lösch:
Automatische
Bestimmung
des
Isozentrumskugeldurchmessers und Kontrolle der Laserjustage mittels
EPID-Systemen, Dreiländertagung Bern 2007
[3] DIN 6847 Teil 5
P06.02
Atlas-based auto-segmentation for ART of prostate cancer:
Evaluation of accuracy and efficiency
1
1
1
1
1
M. Stock , I. Simmat , G. Goldner , P. Georg , W. Birkfellner , W.
2
1
Birkfellner , D. Georg ;
1
Medical University Vienna/Dept. of Radiotherapy, Vienna, Austria,
2
Medical University Vienna/Centre for Medical Physics and Biomedical
Engineering, Vienna, Austria.
Purpose/Objective: The time-consuming task of CT image
segmentation is considered as the bottle neck in re-planning for adaptive
radiotherapy. Organ at risk and target delineation is still predominantly
performed manually and prone to inter-observer variation. In summary,
for adaptive radiotherapy based on CT or CBCT faster contouring
procedures will become mandatory. In this study two atlas-based
autosegmentation tools were tested in terms of accuracy and efficiency.
Material/Methods: Twenty patients with variations regarding contrast
agent, rectal balloon, rectal filling and body mass index (BMI) were
selected for this study. Automatic contouring with ABAS (Elekta CMS)
and iPlan (BrainLAB) was performed and compared to manual
delineation of bladder, rectum and prostate. First the performance of
available DEMO-atlases on CT was investigated. Second, planning CTs
of five patients were selected as new individual atlas and the automated
segmentation of CBCT data, acquired during treatment of the same
patients, was tested. Dice Similarity Coefficient (DSC), generalized
conformity index and indicators for under- and over-segmentation were
calculated and compared to inter-observer (IO) variability. Qualitative
evaluation in terms of usability of the automatically drawn structures was
assessed by a senior radiation oncologist using a visual analogue scale
(VAS). In addition segmentation speed was documented.
Results: The comparison to manual contouring resulted in significant
differences of the two systems for bladder (mean over all patients:
DSCABAS = 0.86 and DSCiPlan = 0.51) and prostate (mean: DSCABAS =
0.71 and DSCiPlan = 0.57). The inter-observer variability for the same
patient set was less for bladder (DSCIO = 0.94) and prostate (DSCIO =
0.79). Rectum delineation showed comparable results (mean: DSCABAS =
0.78 and DSCiPlan = 0.84) to inter-observer variation (DSCIO = 0.85). The
qualitative judgment by the expert showed similar trends than the
coefficients used (e.g. for bladder VASABAS 6.2 and VASiPlan 1.5).
Automatic CBCT segmentation showed high dependence on the
corresponding image quality (mean DSC: bladder 0.66, rectum 0.53,
prostate 0.40). Segmentation speed was on average 4 minutes for ABAS
and half a minute for iPlan.
Conclusion: Results of atlas-based automatic segmentation for prostate
cancer using commercial software are still inaccurate. They require
corrections which raise the question about sufficient time savings using
these tools. Further ideas for improvement are inevitable but may not
only be restricted to the registration algorithms but e.g. also to the image
quality provided by CBCT images.
P06.03
Erste Erfahrungen mit der elastischen Fusion von iPlan RT 4.5
Adaptive
S. Kampfer, M. N. Duma, P. Kneschaurek;
TU München, Klinikum rechts der Isar, Klinik und Poliklinik für
Strahlentherapie und Radiologische Onkologie, München, Germany.
Einleitung: In der Strahlentherapie ist Software zur Koregistrierung
verschiedener Bilddatensätze (CT/ MR/ PET) weit verbreitet. Diese führt
bis heute fast ausschließlich durch rigides Verschieben und Verdrehen
99
der Bildserien eine möglichst gute Übereinstimmung herbei. Oftmals hat
sich die Anatomie des Patienten aber, z.B. durch Gewichtsabnahme,
zwischen den Aufnahmen wesentlich verändert, und eine elastische
Fusion wäre wünschenswert.
Mithilfe der neuen iPlan-Softwareversion iPlan RT 4.5 Adaptive von
Brainlab (Feldkirchen, Deutschland) können CT-Bilddatensätze elastisch
fusioniert werden.
Material und Methoden: DICOM-Datensätze von verschiedenen
Aufnahmegeräten (CT Emotion16 / Siemens, kV-Conebeam-CT eines
Linearbeschleunigers / Varian, MVCT / Tomotherapie) werden in die
Software importiert, zunächst rigide und anschließend elastisch
fusioniert. Die elastische Fusion (autoMorph), die automatisiert abläuft
soll auf Reproduzierbarkeit überprüft werden. Hierzu wird die elastische
Fusion dreimal mit den gleichen Ausgangswerten (nach selber rigider
Fusion) und zusätzlich zweimal mit davon verschiedenen
Ausgangswerten
ausgeführt.
Die
dabei
erhaltenen
Deformationsmatrizen werden verglichen.
Ergebnisse:
Die
DICOM-Datensätze
der
verschiedenen
Aufnahmegeräte konnten erfolgreich in die Software eingelesen und mit
einem ursprünglichen Planungs-CT nach starrer Fusion auch elastisch
fusioniert werden. Die errechnete Transformationsmatrix verbiegt
erfolgreich Kopien der bereits vorhandenen Strukturen, die eine gute
Passform mit dem neueren CT aufweisen. Die Software ermöglicht mit
diesen neuen Strukturen die Planung eines adaptierten Planes. Bei
wiederholter Anwendung auf denselben Datensatz ergab die elastische
Fusion reproduzierbare Transformationsergebnisse. Bei Veränderung
der rigiden Koregistrierung ergab sich erwartungsgemäß eine geänderte
Transformationsmatrix.
Schlussfolgerung: Die hier getesteten Eigenschaften der elastischen
Fusion von iPlan RT 4.5 liefern reproduzierbare Ergebnisse und können
eine deutliche Arbeitserleichterung bzw. eine Genauigkeitssteigerung bei
Rekonturierung ergeben. Die getestete Software lässt sich angenehm
bedienen.
P06.04
Evaluierung von Goldmarkern zur Implementierung der IGRTTechnik zur Prostatabestrahlung
1
1
1,2
1,2
K. Willborn , Y. Uphoff , H. Looe , B. Poppe ;
1
2
Pius-Hospital, Oldenburg, Germany, Carl von Ossietzky Universität,
Oldenburg, Germany.
Zielsetzung: Es wurden Messungen an 10 Goldmarker verschiedener
Hersteller mit unterschiedlichen Durchmessern, Längen und
Oberflächenstrukturen an Geräten des strahlentherapeutischen
Prozessablaufes zur Prostatabestrahlung durchgeführt. Dabei galt es
den Marker mit optimaler Detektierbarkeit und einem ebenso guten
Kontrast für die klinische Anwendung herauszufiltern.
Material und Methoden: Anhand von DRRs, welche auf den PlanungsCTs der einzelnen Marker in einem CIRS-Phantom beruhen, wurden
Überlagerungen mit den orthogonalen Portal-Aufnahmen eines
Beschleuniger erstellt, von denen Screenshots genommen wurden.
Dieses Vorgehen erfolgte entsprechend für Verschiebungen um jeweils
1, 3 und 5 mm nach links-lateral, anterior und inferior.
Weiterhin wurden Untersuchungen bezüglich des Einflusses von
Markern auf die Bestrahlungsplanung vorgenommen.
Fachkundige Probanden bewerteten schließlich alle Aufnahmen
qualitativ. Diese Ergebnisse sowie die einer teilweisen quantitativen
Auswertung bildeten die Grundlagen für die Entscheidung zu Gunsten
eines Markers.
Ergebnisse: Die Marker ließen sich aufgrund ihres Kontrastverhaltens
in vier Gruppen abhängig von ihren Durchmessern einteilen. Der X-Mark
der Firma additec GmbH mit den Maßen von 1,15 mm x 10 mm erhielt
rundweg die besten Bewertungen: RW3 mit 1,2 ± 0,11, DRR mit 1,1 ±
0,15, EPI mit 1,5 ± 0,35, Überlagerungen mit 1,7 ± 0,54. Auch mit der
schlechtesten Bewertung im Bereich der Artefaktbildung von 2,2 ± 0,89,
stellte sich dieser Marker dennoch im Gesamtergebnis mit 1,6 ± 0,43 als
der zu bevorzugende dar.
Die Untersuchung der Marker auf Einflüsse auf die Bestrahlungsplanung
zeigten keine klinisch relevanten Ergebnisse.
Schlussfolgerungen: Kontrastverhalten und Detektierbarkeit sind
abhängig von Länge und Durchmesser eines Markers. Für eine
Anwendung im Rahmen einer
IGRT-basierten Radiatio der Prostata scheinen daher generell Marker
mit einem Durchmesser von mindestens 1,10 mm sowie einer Länge ab
3 mm klinisch vorteilhaft, bei besten Ergebnissen mit einer Länge von 10
mm. Ein Einfluss von Oberflächenstrukturen konnte nicht eindeutig
nachgewiesen werden, scheint aber nicht ausgeschlossen.
P06.05
Assessment of intrafraction prostate and patient movement for
IMRT patients with rectal balloon
E. Steiner, M. Stock, G. Goldner, D. Georg;
Department of Radiotherapy, Medical University of Vienna, Vienna,
Austria.
Purpose/Objective: To investigate the intrafraction prostate movement
during IMRT delivery. The shift of bony structures was measured
additionally in order to determine patient motion during the delivery of a
fraction. Thus, a differentiation between the prostate and the whole
patient movement was included in the analysis. Margins accounting for
setup uncertainties and intrafraction motion were calculated.
Material/Methods: Seventeen patients with prostate cancer, each with 3
implanted fiducial gold markers (1.2 mm diameter, 3 mm length) within
the prostate, were immobilized in supine position utilizing a knee
support. Among them twelve patients with advanced prostate cancer
were receiving an IMRT treatment and five patients with localized
prostate cancer a 4-field box treatment. To spare the posterior rectal wall
and to immobilize the prostate an endorectal balloon (filled with 40 ccm
of air) was used on a daily basis. After the first treatment setup based on
skin marks, patients were imaged using the ExacTrac stereoscopic
imaging system. If the marker displacement exceeded the tolerance of 3
mm in relation to the marker positions on the planning CT, patients were
shifted accordingly and verification images were taken. Additionally, all
patients were imaged after treatment. Patients treated with IMRT were
also imaged during the treatment (approximately at halftime).
Marker/prostate and bone drifts were evaluated as a function of
treatment time for more than 600 treatment fractions. Margins were
calculated according to the van Herk recipe [1].
Results: The patient movement evaluated by bone match was strongly
patient dependent, but was in general smallest in longitudinal direction.
In contrast, marker (=prostate) drifts were less dependent on patients
and showed a significant increase with treatment time in longitudinal and
vertical direction. In lateral direction the prostate stayed rather stable.
Trends for standard deviations for prostate and patient motion are shown
in Fig. 1. Margins resulted in 2.2 mm, 3.9 mm, 4.3 mm for 4-field box, 3.7
mm, 2.6 mm, 3.6 mm for 5-field boost IMRT and 4.2 mm, 5.1 mm, 6.6
mm for 9-field pelvic IMRT in lateral, longitudinal and vertical direction,
respectively. Mean treatment times were 5.4 min, 9.7 min and 16.2 min
for 4-field box, 5-field and 9-field IMRT, respectively.
Conclusion: Intrafraction prostate and patient motion causes significant
positioning variations. Calculated margins were comparable to results
from literature where no endorectal balloon was used. When aiming to
further reduce the treatment margin, repositioning of the patients during
the treatment will be necessary. As bone drift increases as a function of
treatment time, patients seem to become more uneasy the longer the
treatment takes. New treatment techniques like rotational IMRT will help
to tackle the issue of intrafraction motion effects.
[1] van Herk, M.: Errors and margins in radiotherapy. Seminars in
Radiation Oncology 14: 52-64 (2004)
P06.06
Introducing A Stochastic Model in Order to Deal with Marker
Displacements due to Non-Rigid Deformations in Feature Based
Image Registration for Patient Positioning with Multiple
Radiographs
1,2
3
1
1
2
W. Hoegele , P. Zygmanski , B. Dobler , O. Koelbl , R. Loeschel ;
1
Department of Radiation Oncology, Regensburg University Medical
2
Center, Regensburg, Germany, Department of Computer Science and
100
Mathematics, University of Applied Sciences, Regensburg, Germany,
Department of Radiation Oncology, Brigham and Women’s Hospital and
Harvard Medical School, Boston, MA, United States.
3
Image registration for the purpose of patient positioning before or during
a radiotherapy treatment is a standard tool in clinical routine. Established
approaches are the registration of A) orthogonal kV or MV radiographs
of the current patient setup with digitally reconstructed radiographs
(DRR) of the computed tomography (CT) which was the basis for
treatment planning, or B) 3D on-board cone-beam CT (CBCT) data with
the 3D planning CT. The overall aim is to estimate the rigid
transformation of the treatment couch (shifts and rotations) to optimally
fit the patient to the treatment plan. For this purpose rigid feature- or
intensity-based image registration methods are commonly utilized.
These approaches, however, do not specifically account for anatomical
deformations of the patient. This may lead conceptually and clinically to
unsatisfying results since non-rigid deformations inside the patient are
known from practice, especially for treatment sites in the abdomen. On
the other side, non-rigid image registration is a viable field of research,
but is computationally time consuming and conceptually challenging
which may not be suitable for robust real time applications in the clinic.
We present an alternative feature based concept for short arcs in order
to incorporate deformability of body regions into the estimation of the
rigid couch transformation. The estimation is based on markers which
are visible in 40° arcs consisting of 20 radiographs, and which are
slightly displaced due to deformations. This acquisition scheme allows
using more than only two radiographs as in A) and reduces time and
dose from imaging compared to B). The mathematical concept is based
on a stochastic-geometrical model[Högele et al.(2011)], which describes
the acquisition geometry and possible displacements of the markers in
the radiographs in stochastic terms. Eventually, this leads to a maximum
likelihood estimator (ML) for the rigid couch transformation. The input
data of the ML are marker extracted radiographs, and the necessary
correspondence between markers in the current radiographs and the
reference is performed automatically by the estimator. In a simulation
study we compare the proposed method to a normalized crosscorrelation (NCC) approach which represents an efficient standard tool
in rigid image registration. In this simulation study a cylindrical phantom
was utilized (see Fig.1). In every simulation four metallic markers were
individually and randomly displaced, and a global translational setuperror was introduced. At first, the radiograph was calculated, second,
feature extraction was utilized to visualize the markers in the
radiographs, and third, both estimation methods were applied to this
data and compared to the true setup-error. The histograms of radial
displacements before estimation, and after estimation with NCC and ML
are presented in Fig.2 for four individual displacement ranges of the
markers (rigid, 1-3 mm). This study shows that including a stochastic
model of the geometry of image acquisition for deformable body regions
leads to superior results than standard methods. Moreover, a new
mathematical framework for marker based patient positioning with
multiple radiographs is established.
P06.07
Vorstellung einer umfassenden Softwareumgebung zur Beurteilung
und Verbesserung der retrospektiven Rekonstruktion von 4D-CT
Datensätzen zur Bestrahlungsplanung atembeweglicher Tumore
S. Wachter, N. Wachter-Gerstner, J. Hofinger;
Department of Radiotherapy, Passau, Germany.
Fragestellung: Neuartige Bestrahlungstechniken wie z.B. extrakranielle
stereotaktische Radiotherapie verwenden zunehmend 4D-CTDatensätze als Planungsgrundlage. Es liegen Berichte vor, dass bis zu
90% dieser Daten erhebliche Artefarkte aufweisen (Yamamoto et al.
2008,
IJRBP).
Verschiedene
Resortierungsmaßnahmen
von
Triggersignalen können Artefarkte in unterschiedlichem Ausmaß
beeinflussen.
Material und Methode: Es wird eine selbst entwickelte
Softwareumgebung vorgestellt, die nach Import von Atemkurven von
kommerziellen Herstellern (zb. Varian RPM, Anzai, VisionRT) eine
Neuberechnung und -verteilung der aquirierten Triggerpunkte auf Basis
verschiedener Algorithmen (zb. Max. Inspiration/Exspiration, globale
/lokale Amplitudenwerte) erlaubt. Die Software wurde mit open-source
Komponenten programmiert (Scriptsprache PHP), und kann auf
verschiedenen Betriebssystemen ausgeführt werden. Als Frontend
dienen herkömmliche Internet-Browser. Sie beinhaltet neben einer
graphisch-visuellen Ausgabe der Triggerneuverteilungen auch die
Möglichkeit der gemeinsamen Betrachtung der Atemkurve und der
rekonstruierten DICOM-Bilder. Eine Datenbankunterstützung erleichtert
den quantitativen und qualitativen Vergleich der verschiedenen
Triggersortierungen. Über eine Berechnung von MPRs lassen sich
Artefarktreduktionen auch visuell anzeigen. Mit einer ebenfalls selbst
entwickelten und programmierbaren Motion-Plattform (linearer
Schrittmotor) lassen sich sowohl Patientenatemkurven wie auch
synthetische Atemmuster bezüglich dem Auftreten von Distorsionen
oder Artefarkten beurteilen.
Ergebnisse: Die Analyse von Atemkurven mit anschließender
Neuberechnung von Triggerpunkten und einer Bewertung der
verschiedenen Algorithmen anhand von statistischen Steuungsmaßen
führt zu signifikanten Artefarktreduktionen bei der Rekonstruktion von
4D-CT-Datensätzen. Mit dem Motion-Phantom lassen sich zusätzliche,
sonst klinisch unerkannte Artefarkte erkennen.
Schlussfolgerung: Mit der vorgestellten Software lassen sich Artefarkte
durch eine systematische Analyse der Atemkurve vor Rekonstruktion der
4D-CT-Bilder signifikant reduzieren.
P06.08
Heart movement analysis for improving the respiration-gated
radiotherapy in patients with left sided breast cancer
1
2
1
1
2
R. Abdelhamid , O. Waletzko , A. Farrag , A. Khalifa , R. Rohn , A.
3
Block ;
1
Clinical Oncology and Nuclear Medicine Department, Assuit University,
2
Egypt, Praxis für Strahlentherapie am Klinikum, Dortmund, Germany,
3
Institut für Medizinische Strahlenphysik, Dortmund, Germany.
Introduction: Respiration induced heart movement during radiotherapy
exposes the heart to the inevitable risks of radio-exposure, and hence
radiation injury, in cases of Lt. sided breast cancer. The impact of such a
risk is additionally aggravated by the use of radiotherapy in combination
with cardiotoxic chemotherapeutic agents. Radio-oncologists pay special
attention to the coronary arteries that might be included in this small part
of the heart exposed to radiation. The aim of this study was to include
the internal heart movement for improving respiration-gated radiotherapy
of left sided breast cancer.
Methods: In the period from 2004-2010; 116 patients, all females with
LN positive Lt. sided breast cancer, were randomly enrolled in our study
after an informed consent was taken from all patients for both
techniques. Of them, 70 had respiration curves with sufficient quality for
a reliable analysis. In all patients, both techniques were applied, and
heart movement was retrospectively analyzed and compared. We use
the Varian Real-time Position management (RPM) Respiratory Gating
system. The signal provider for the gated beam is a marker block with
infrared reflectors, which is placed on the patient’s breast. Two planning
CT's in inspiration and expiration, and one free breathing scan are
performed. The motion of a marked point at the edge of the heart was
analyzed with the clinic-developed software ORAT in the simulator
sequence for acquiring information of the cranio-caudal amplitude of
heart movements in free breathing (respiration-induced amplitude) and a
15 seconds breath-hold phase (inherent amplitude).
Results: The amplitude of the respiration-gated heart movement
ranged from 2.8-33.8mm (mean: 16.2 - SD: 5.8), while that of the breathhold was 0.8-16.1mm (mean: 3.1 - SD: 2.56). There was about 80.9%
decrease in the mean amplitude of movement by breath-hold.
Comparing the mean amplitude of both groups using T-test showed a
highly statistically significant difference (p = 0.0001, confidence level
101
95%). Using Pearson’s correlation, the values of paired amplitudes
correlated significantly, albeit weakly (Pearson’s r = 0.3 - p = 0.026 confidence level 95%).
Conclusions: Respiration-gated Radiotherapy produces a significant
reduction in the amplitude of heart movement in comparison to the
standard radiotherapy. This, in turn, could be utilized to spare a larger
cardiac volume during radiotherapy planning. Different techniques were
tried to minimize heart radio-exposure, as: the deep breath-hold or the
respiration-gated radiotherapy.
Previous studies did not pay much attention to the role of inherent heart
movement.
In this study, we analyzed the inherent heart movement, as the heart
functions no matter the patient is holding breath or not.
The role of inherent heart movement varies from one patient to another
which should be taken in consideration during defining the parameters of
respiration-gated radiotherapy.
The inherent amplitude of the heart motion is the physiological lower limit
of the respiration-gating window.
Poster 07: Dosisberechung und
Monte-Carlo Anwendungen in der
Strahlentherapie
P07.01
On the accuracy of Acuros XB and AAA dose calculation for small
fields with reference to RapidArc stereotactic treatments
A. Clivio, A. Fogliata, G. Nicolini, E. Vanetti, L. Cozzi;
IOSI, Bellinzona, Switzerland.
Purpose: To assess the accuracy against measurements of two photon
dose calculation algorithms (Acuros XB and the Analytical Anisotropic
algorithm AAA) for small fields usable in stereotactic treatments with
particular focus on RapidArc.
Methods: Acuros XB and AAA were configured for stereotactic use.
Baseline accuracy was assessed on small jaw-collimated open fields for
different values for the spot sizes parameter in the beam data: 0.0, 0.5, 1
2
and 2mm. Data were calculated with a grid of 1x1mm . Investigated
2
fields were: 3x3, 2x2, 1x1 and 0.8x0.8 cm from a 6MV beam from a
Clinac2100iX. Profiles, PDD, and output factors were measured in water
2
with a PTW diamond detector (detector size: 4mm , thickness 0.4mm)
and compared to calculations. Four RapidArc test cases were optimized,
2
calculated and delivered with jaw settings J3x3, J2x2 and J1x1 cm , the
last was optimized twice to generate high (H) and low (L) modulation
patterns. Each plan consisted of one partial arc (gantry 110° to 250°),
and collimator 45°. Dose to isocenter was measured in a PTW Octavius
phantom and compared to calculations. 2D measurements were
performed by means of portal dosimetry with the GLAaS method
developed at author’s institute. Analysis was performed with gamma
pass-fail test with 3% dose difference and 2mm distance to agreement
thresholds.
Results: Open square fields: penumbrae from open field profiles were in
good agreement with diamond measurements for 1mm spot size setting
for Acuros XB, and between 0.5 and 1mm for AAA. Maximum MU
difference between calculations and measurements was 1.7% for Acuros
2
XB (0.2% for fields greater than 1x1cm ) with 0.5 or 1mm spot size.
Agreement for AAA was within 0.7% (2.8%) for 0.5 (1mm) spot size.
RapidArc cases: doses were evaluated in a 4 mm diameter structure at
isocentre and computed values differed from measurements by 0.0, -0.2,
5.5, -3.4% for AcurosXB calculations (1mm spot size), and of -0.1, 0.3,
6.7, -1.2% for AAA, respectively for J3x3, J2x2, J1x1H, J1x1L Rapidarc
plans. Gamma Agreement Index from 2D dose analysis resulted higher
than 95% for J3x3 and J2x2 cases, being around 80% for J1x1 maps.
Sensitivity with respect to the dosimetric leaf gap and transmission factor
MLC parameters was evaluated in the four RapidArc cases, showing the
need to properly set the dosimetric leaf gap for accurate calculations.
Conclusion: i) Acuros XB and AAA showed acceptable characteristics
for stereotactic small fields provided adequate tuning of configuration
parameters is performed, ii) dose calculated for RapidArc stereotactic
plans showed an acceptable agreement against point and 2D
measurements. Both algorithms can therefore be considered safely
applicable to stereotactic treatments.
P07.02
The impact of AcurosXB photon calculation algorithm on dose
distribution in breast treatments under different lung densities
A. Clivio, A. Fogliata, G. Nicolini, E. Vanetti, L. Cozzi;
IOSI, Bellinzona, Switzerland.
Purpose: A pre-clinical release of AcurosXB, a photon dose calculation
algorithm for external beams, has been tested in Eclipse environment.
Aim of the study was to investigate the influence of different air filling in
lungs on the Acuros XB algorithm. Evaluation of the new algorithm in
clinical breast cases is performed, with particular attention to the
different lung densities present in free breathing (FB) with respect to
deep inspiration breath hold mode (DIBH). Aim of the study was to
investigate the influence of different air filling in lungs on the Acuros XB
algorithm.
Methods: CT datasets from 10 breast patients acquired in both free
breathing (FB) and deep inspiration breath hold (DIBH) conditions were
selected. Average lung density distributions had mean densities of
0.27±0.04 and 0.16±0.02 g cm-3 respectively. Two 3D-CRT techniques
are used, the most common two tangential fields, and a three field
technique. Reference benchmark calculations were performed with the
Voxel Monte Carlo (VMC++). An analysis was performed in terms of
DVHs and of 3D γ index evaluation, in particular within the low density
medium (lung). As a further comparison, Anisotropic Analytical Algorithm
(AAA) was used for dose distribution calculations. Results were stratified
according to the breathing conditions also to appraise if differences
present in various lung densities could be clinically relevant. Evaluation
102
of dose to medium and dose to water is also carried out for VMC++ and
AcurosXB, allowing this feature.
Results: In general AcurosXB presented dose distributions very similar
to the Monte Carlo calculations in lung regions for both FB and DIBH
breathing, indicating that also in clinical cases the specific structure
density is not changing the overall dose calculation accuracy. Good
agreement between Monte Carlo and AcurosXB evaluations in terms of
dose calculation in medium and in dose to water was reported. AAA
calculations confirmed to give acceptable results, but with less accuracy
with respect to the new AcurosXB algorithm.
Conclusion: The evaluation of AcurosXB in 3D-CRT clinical cases with
low density heterogeneity in breast treatment was considered
satisfactory and similar to Monte Carlo calculations.
P07.03
Commissioning of a virtual linear accelerator impact of different
primary electron beam parameters
1,2
2
1
2
H. Nassar , J. Wulff , N. El Khayati , K. Zink ;
Laboratory of Nuclear Physics, Faculty of Sciences, Mohammed V 2
Agdal University, Rabat, Morocco, Institüt für Medizinische Physik und
Strahlenschutz – IMPS, University of Applied Sciences, Giessen,
Germany.
1
Purpose: In the past two decades, Monte Carlo simulation is widely
used to calculate dose distributions. An accurate calculation of dose
distributions in radiation therapy requires an accurate description of the
radiation source. Our aim in the current study was to determinate the
influence of incident electron beam characteristics on Monte Carlo based
dose distributions for a 6 MV photon beam produced by an ELEKTA
Precise accelerator. Mean energy, radial intensity distribution and
energy spread of the initial electron beam, were studied.
Methods and Materials: The depth-dose and dose-profile for different
field sizes (i.e. 3x3 cm², 5x5 cm², 10x10 cm² and 40x40 cm² ) were
calculated in a water phantom using the DOSXYZnrc user-code with
0.5x0.5x0.5 cm³ (for all field seizes) and 0.25x0.25x0.25 cm³ ( for 3x3
cm² and 5x5 cm²) voxel geometries. All measurements were performed
with two ion chambers PTW 31010 (for all field seizes) and PTW 31016 (
for 3x3 cm² and 5x5 cm²) at a SSD of 100 cm.
Results: The comparisons of measured and calculated depth-dose and
dose-profile curves were performed at a depths of 2.5 cm, 5.0 cm and
10.0 cm. The resulting differences are less than 1%. The statistical
uncertainties of all dose values were within 0.5% for all applied energies
(from 5.6 MeV to 6.4 MeV), radial intensity distributions given at FWHM
of initial electron beam (from 1 mm to 3 mm) and all applied energy
spread. The depth-dose and dose-profile curves were considerably
affected by the mean energy of the incident electron beam with dose
profiles to be more sensitive on that parameter (Fig. 1). The depth-dose
curves were almost unaffected by the radial intensity distribution of initial
electron beam, but in contrast, dose-profiles curves were affected to it,
especially for large field sizes (Fig. 2). No influence was observed in
dose-profile or depth-dose curves regarding energy spread of primary
electron beam (Fig. 3).
Fig. 2 : influence of the radial intensity distribution on lateral dose-profile
for a 6 MV photon beam
Fig. 3 : influence of the energy spread on lateral dose-profile for a 6 MV
photon beam
Conclusion: Simulating photon beam produced by incident electron
beam in a linear accelerator, mean energy and radial intensity
distribution should be turned accurately to obtain a good agreement in
calculation of dose distribution.
Fig. 1 : influence of the mean energy on lateral dose-profile for a 6 MV
photon beam
103
P07.04
Validierung eines mit Geant4 simulierten Linearbeschleunigers
durch Messungen mit zwei verschiedenen dosimetrischen
Messsystemen
1
1
1,2
2
1
N. Escobar Corral , C. Bornemann , S. Lotze , A. Stahl , M. J. Eble ;
1
Klinik für Strahlentherapie, Universitätsklinikum Aachen, Aachen,
2
Germany, III Physikalisches Institut B, RWTH Aachen, Aachen,
Germany.
Mittels moderner Behandlungstechniken, wie z. B. Intensitätsmodulierte
Strahlentherapie IMRT, werden komplexe Dosisverteilungen verabreicht,
die an die Form eines Zielvolumens sehr genau angepasst sind. Im
Vergleich zur klassischen konformalen Therapie kann die verschriebene
Dosis im Tumorgewebe, bei gleichzeitiger Schonung umliegender
Risikoorgane, besser appliziert werden.
Um zu gewährleisten, dass ein Behandlungsplan diese Bedingungen
erfüllt, ist es notwendig, die Energiedeposition im Gewebe genau
berechnen zu können. Die größte Genauigkeit erreicht die Monte-CarloMethode (MC), die jedoch aufgrund der notwendigen Rechenkapazität
und -zeit bis heute noch nicht standardmäßig in klinische
Therapieplanungssysteme integriert werden konnte. Mit dem Ziel
genauere Berechnungen der Dosisverteilungen durchführen zu können,
wird in der Medizinischen Physik unserer Klinik eine auf Geant4 basierte
Monte Carlo Software entwickelt.
In unserer Klinik wurde der Beschleuniger SLi Plus der Firma Elekta
Oncology
Systems
vom
Bremsstrahlungstarget
bis
zum
Strahlenaustrittsfenster mit allen Kollimatoren, einschließlich der
einzelnen MLCs, in Geant4 modelliert. Um die Simulation des
Beschleunigers zu validieren, wurden zwei Phantome, ein
Wasserphantom und ein PMMA-Plattenstapel, modelliert. Die
Bestrahlung dieser Phantome mit Photonen der Energie 6MeV und
10MeV wurde für verschiedene Feldgrößen mit unterschiedlichen MLC
Einstellungen simuliert.
Um die Ergebnisse der Simulation mit Messergebnissen vergleichen zu
können, wurden Bestrahlungen unter den simulierten Bedingungen
durchgeführt. Zum einen wurden mit einer Ionisationskammer im
Wasserphantom Dosisquerprofile bestimmt. Zum anderen wurden mit
Gafchromic EBT2 Filmen im PMMA-Plattenstapel Dosisverteilungen
gemessen. Gemessene und simulierte Dosisverteilungen wurden
anhand der Gammaindexmethode nach Low et al. (1998) verglichen.
Die Ergebnisse dieser Arbeit zeigen die Genauigkeit der Geant4
basierten MC Simulation und ihre Übereinstimmung mit den
Messergebnissen. Die Abweichungen bezogen auf die Feldgeometrien
sind kompatibel mit der von Elekta angegebenen Präzision (2mm oder
1% der Feldgröße). Die Übereinstimmung von Simulation und Messung
im Bezug auf absolute Dosiswerte werden anhand verschiedener
Gammaindexkriterien diskutiert.
P07.05
Basisdatenerhebung für sehr kleine Bestrahlungsfelder im
Festkörperphantom unter TPR-Bedingungen
M. Janich, F. Lange, R. Gerlach, D. Vordermark;
Universitätsklinikum Halle, Halle, Germany.
Einleitung: Für Präzisionbestrahlungstechniken wie IMRT oder
Stereotaxie
ist
die
Basisdatenmessung
für
sehr
kleine
Bestrahlungsfelder bis in den Millimeterbereich obligatorisch, gestaltet
sich aber insbesondere für die Messung der Tiefendosisverteilung als
sehr schwierig. Zum einen ist man bei der Wahl des Detektors, was
seine laterale Ausdehnung betrifft, sehr eingeschränkt und zum anderen
ist dessen submillimetergenaue Justage auf dem Zentralstrahl
kompliziert.
Standardmäßig
erfolgt
die
Messung
der
Tiefendosisverteilung
unter
TPR-Bedingungen
mithilfe
eines
Halbleiterdetektors im Wasserphantom, indem die Wasserschicht
oberhalb des Detektors durch Pumpen sukzessive verändert wird. Leider
führt die Wasserbewegung zu verrauschten Kurven und die
Umverteilung von ca. 100kg Wasser während der Messung zu
Instabilitäten im Messaufbau, was eine genaue Fixation des Detektors
im Isozentrum verhindert. Im Folgenden wird gezeigt, dass es möglich
ist, durch das Messen von wenigen TPR-Kurven im Festkörperphantom
und deren Anpassung an eine analytische Funktion, einen Satz von
feldgrößenabhängigen Parametern zu bestimmen. Er gestattet es
nachträglich, zusätzliche inter- oder extrapolierte TPR-Kurven genauer
zu berechnen, als sie im Wasserphantom unter klinischen Bedingungen
messbar wären.
Material und Methoden: Für die Messungen wurde eine
Halbleiterkammer (60012) der Firma PTW in einem selbstgebauten
Miniphantom aus RW3-Material (Abb. 1) über die Tischsteuerung exakt
im Isozentrum fixiert und sukzessive weiteres Phantommaterial
aufgelegt. Die Bestimmung der TPR-Kurven erfolgte für 5 Feldgrößen
2
(1x1, 2x2, 3x3, 5x5, 8x8cm ) für 6 und 15MV Photonenstrahlung an
einem Linearbeschleuniger (Typ:ONCOR, Fa. Siemens) bis in eine Tiefe
104
vom 250mm in nichtäquidistanten Schritten. Die gemessenen Kurven
wurden mit der in [Sauer et al.] angegebenen Funktion über eine
Variation der 5 Parameter angepasst. Anders als dort vorgeschlagen
wurden für alle 5 Parameter feldgrößenabhängige Funktionen eingeführt
und die numerische Anpassung so realisiert, dass sich eine möglichst
gute Anpassung der Parameter an diese Funktionen einerseits und an
die TPR-Kurve andererseits ergibt. Der mithilfe dieser multifunktionellen
Analyse erhaltene Parametersatz wurde zur Berechnung von inter- und
extrapolierten TPR-Kurven genutzt und diese mit gemessenen Daten
verglichen.
Ergebnisse und Diskussion: Die Tabelle in Abbildung 2 zeigt die
relativen Fehler zwischen den gemessenen und den aus dem gewonnen
Datensatz berechneten TPR-Werten für die 6MV Strahlung. Alle Fehler
größer ±1% sind rot dargestellt, ein Fehler größer 3% tritt nicht auf.
Diese kleinen Fehler sind um so bemerkenswerter, wenn man bedenkt,
dass eine laterale Dejustage des Detektors von nur 2mm, die bei der
Messung einer prozentualen Tiefendosiskurve durchaus auftreten kann,
2
in einem 1x1cm Feld bereits zu einem Fehler von >6% führt, bei einem
2
0.6x0.6cm Feld sogar >16%. Vor diesem Hintergrund fällt es leicht, den
Parametersatz zur Extrapolation hin zu kleineren Feldgrößen zu nutzen,
die einer direkten Messung nur noch unter Laborbedingungen
zugänglich wären. In Abbildung 3 sind die ersten Zentimeter von acht
aus dem Datensatz berechneten TPR-Kurven dargestellt. Die farbigen
Kurven entsprechen extrapolierten Daten sehr kleiner Felder. Alle
Datensätze sind in 10cm Tiefe auf 1 normiert.
Literatur: O.A. Sauer, J. Wilbert: “Functional representation of tissue
phantom ratios for photon fields“, Med. Phys. 36 (12), 2009
Abb.1
Abb.2:
Poster 08: Protonen- und
Ionentherapie
P08.01
Bestimmung des Ansprechvermögens von Alanin in modulierten
Protonen- und 12C-Bestrahlungsfeldern
M. Kunz, M. Klingebiel, K. Zink;
Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany.
Einleitung: Viele Eigenschaften machen Alanine zu einem geeigneten
Dosimeter
im
Bereich
der
Hadronen-Dosimetrie:
Das
Massenstoßbremsvermögen von Alanine und Wasser ist über weite
Energiebereiche nahezu identisch und auch seine wasserähnliche
Dichte in Kombination mit dem Bindemittel Paraffin machen Alanin zu
einem nahezu wasseräquivalenten Detektor. In dieser Studie werden
Simulationsergebnisse zum Ansprechvermögen von Alanin bezogen auf
Wasser, die auf der Strahlungstransportsoftware FLUKA [1] beruhen, mit
publizierten Messergebnissen verglichen. Es wurden modulierte
Strahlungsfelder mit Energien von 51-62 MeV (Protonen) respektive 96112 MeV/n (12C) eingesetzt.
Material und Methoden: Die verwendeten Alanin-Pellets orientieren
sich an den von Anton et al. [2] angegebenen Spezifikationen (siehe
Tabelle 1). Das Ansprechvermögen r des Alanindetektors ist
Abb.3:
folgendermaßen definiert:
DAla beschreibt die Energiedosis im Alanin-Pellet, DH2O die WasserEnergiedosis am Ort des Pellets. Sowohl mit Protonen- als auch mit
12C-Feldern verschiedener Größe wurden Spread-out-Bragg-Peaks
(SOBP) von ungefähr einem cm Breite in einem Wasserphantom
generiert. Die maximale Energie der Protonen betrug 62 MeV, die von
12C 112 MeV. Die Alanin-Pellets wurden in allen Simulationen in der
Mitte des SOBPs positioniert, wobei sich die Symmetrieachse der
Pellets parallel zur Bestrahlungsrichtung befand. Um den Einfluss einer
notwendigen PMMA-Halterung der Pellets zu verifizieren, sind in einer
zweiten Simulation die Pellets in einer PMMA-Halterung im
Wasserphantom positioniert worden. Bei der Platzierung wurde sowohl
die Dicke der Pellets als auch der PMMA-Halterung in ihre jeweilige
wasseräquivalente Dicke umgerechnet. Abbildung 1 zeigt einen mittels
Protonen generierten SOBP sowie die Platzierung des Pellets.
Abbildung 2 zeigt die entsprechende Situation im 12C-SOBP.
Tabelle 1: Spezifikationen der verwendeten Alanin-Pellets
Durchmesser
4.85 mm
Dicke
2.85 mm
Verhältnis Alanin zu Paraffin
10/11 Alanin zu 1/11 Paraffin
Effektive Dichte
1.22 g/cm³
Abbildung 1: SOBP von Protonen im Wasserphantom. Die gestrichelten
Linien markieren die Position des Alanin-Pellets.
105
P08.02
A generic set of fragmentation data for clinical ion beams and its
exemplary application for the comparison of different beam
delivery methods
1
1
2
2
1,3
P. Botas , S. Greilich , D. C. Hansen , N. Bassler , O. Jäkel ;
1
Division of Medical Physics in Radiation Oncology,German Cancer
2
Research Center (DKFZ), Heidelberg, Germany, Department of
Experimental Clinical Oncology, Aarhus University Hospital, Aarhus,
3
Denmark, Department Radiation Oncology and Radiotherapy,
Heidelberg University, Heidelberg, Germany.
Abbildung 2: SOBP von 12C im Wasserphantom. Die gestrichelten
Linien markieren die Position des Alanin-Pellets.
Ergebnisse: Die Simulationen zeigten keinen signifikanten Einfluss der
PMMA-Halterung auf das Ansprechvermögen. Aufgrund dessen werden
im Folgenden nur die Ergebnisse ohne PMMA-Halterung präsentiert.
Wie in Abbildung 3 zu sehen, ergibt sich für 12C ein
feldgrößenunabhängiges Ansprechvermögen, das im Mittel einen Wert
von 0.986, mit einer Variation innerhalb der statistischen Unsicherheit
von 0,2% (1σ) aufweist. Beim Ansprechvermögen der Protonen zeigt
sich eine größere Streuung der Simulationswerte. Das mittlere
Ansprechvermögen ergibt sich hier zu 0,994 mit einer Variation von +1%. Gründe für die stärkere Streuung der Protonen-SimulationsErgebnisse sind noch unbekannt. Die präsentierten Werte sind in guter
Übereinstimmung mit publizierten Werten von Onori et al. [5], welche ein
Ansprechvermögen von 0.97 +-1,5% (1σ) aus experimentellen
Ergebnissen angeben.
Da für Protonen-Strahlung kein Primärstandard definiert ist, wird 60CoStrahlung als Referenzstrahlungsqualität herangezogen (IAEA-Protokoll
TRS398 [3]). Bezieht man nun das mittlere Ansprechvermögen von
Protonen und 12C-Ionen auf das von 60Co, dass unter
Bezugsbedingungen (DIN 6800-2 [4]) ermittelt wurde, ergibt sich ein
relatives Ansprechvermögen von 1.019(10) für Protonen und von
1.0105(17) für 12C. Der Wert für Protonen ist ca. 5% größer als der von
Fattibene et al. [6] bestimmte experimentelle Wert, liegt aber noch
innerhalb der von den Autoren angegebenen Fehlergrenzen.
In clinically applied beams of heavy ions with initial kinetic energy of up
to approx. 500 MeV/u, complex mixed fields occur due to projectile
fragmentation.
For many purposes such as the treatment planning, prediction of
detector response, biological effect, and computation of stopping power
ratios, it is necessary to have data of ion fluence differential in energy
and penetration depth as a function of primary particle type and initial
energy.
Nowadays, experimental data are still limited and data sets used in
treatment planning systems are tailored to the special needs of the
algorithms and machines and limited in access due to proprietary
reasons. Also, they have to be consistently derived along with the
stopping powers or other data sources which are again not easily
available.
Generic data sets in contrast would enable the community to explore
characteristics of clinical ion beams for many purposes.
We used the latest version of the SHIELD-HIT heavy ion transport code
with a novel scoring routine developed by the Aarhus Particle Therapy
Group to generate data sets of ion fluence for a carbon ion beam with
kinetic energy from 50 up to 500 MeV/u (Fig.1). We calculated those for
three typical scenarios of ion beams delivery techniques:
- active energy variation (i.e. from the accelerator)
- with an additional periodic PMMA element (ripple filter) in the beam line
to slightly broaden the very sharp Bragg peak
- passive energy variation using thick absorbers.
The resulting data are provided on the internet and can seamlessly be
used by routines of the libamtrack program library - which is an open
source project dedicated to clinical ion beam physics and prediction of
detector response and cell survival (http://libamtrack.dkfz.de). The new
data sets are intended to complement the capabilities of libamtrack.
They are nevertheless provided in the spc format established by
successful TRiP98 ion treatment planning system to assure wider
compatibility.
We will present the basic features of the data set as well as an
assessment of accuracy with present data used. We expect this tool to
facilitate research on ion beams and for the future opening the possibility
of expanding to other ions and target materials.
Abbildung 3: Ansprechvermögen als Funktion der quadratischen
Feldgröße.
Fig.1: Example data set for an actively delivered beam (with 3 mm ripple
filter) of 12C with 270 MeV/u initial energy. Three fluence spectra
differential in energy and particle type are shown and related to the
depth-dose curve (80 steps).
106
P08.03
Benefit of two-dimensional silicon-based detectors for ion beam
therapy
1
2
2
1
3
M. Martisikova , J. Telsemeyer , B. Hartmann , L. Huber , S. Brons , C.
4
4
1
1,2
Granja , J. Jakubek , B. Hesse , O. Jäkel ;
1
German Cancer Research Center, Heidelberg, Germany,
2
3
Universitaetsklinikum Heidelberg, Heidelberg, Germany, Heidelberg
4
Ion Beam Therapy Center, Heidelberg, Germany, Institute of
Experimental and Applied Physics, Czech Technical Univesity in Prague,
Prague, Czech Republic.
Within the Heavy Ion Project group at the DKFZ in Heidelberg we
investigate the potential of various detectors to improve ion beam
therapy. These studies involve both amorphous and crystalline siliconbased detectors, which provide high spatial and time resolution as well
as online readout. Experiments are performed at the Heidelberg Ion
Beam Therapy Center (HIT), equipped with a synchrotron and a beam
scanning system.
The amorphous silicon flat-panel detector RID 256L (Perkin Elmer,
Wiesbaden) was designed for medical imaging in photon beams. We
investigate the capabilities of this detector to image ion fields itself and
objects using ion beam radiography.
In cooperation with the CTU in Prague we employ the pixel detector
Timepix developed by the Medipix Collaboration. It is a state-of-the-art
crystalline silicon detector with high sensitivity and an enhanced signalto-noise ratio. Its high spatial resolution (55 um pixel pitch) allows
operation as active nuclear emulsion, registering single ions online. We
investigate its ability of spectroscopy for ions created by nuclear
fragmentation processes of the primary beam.
Measurements of beam profiles and homogeneity of scanned ion fields
are required for daily QA procedures. Currently radiographic films are
used at HIT for this purpose. We have shown that after applying
corrections for dark image and response homogeneity, the flat-panel
detector provides reliable measurements of this kind. Implementation of
a flat-panel detector in daily routine QA measurements is currently
ongoing at HIT.
We have also shown that this detector can be used for 2D absolute
fluence measurements in the plateau region of the Bragg curve. It is
feasible for both, proton and carbon ion patient plans, using calibration
for the applied ion type. This method provides 150-times higher density
of measured points than the currently employed ionization chamber
array, resulting in a high benefit for strongly inhomogeneous dose
distributions. Since it does not require water phantom, it can be
conveniently used with a gantry.
The flat-panel detector shows also a high potential for ion beam
radiography. It is feasible to image metal seeds implanted in soft tissue,
which is promising not only for patient positioning before the beam
application, but also to monitor intrafractional movement of the target.
Given by the steepness of the Bragg-curve, ion beams were shown
previously to provide radiographies with high soft tissue contrast. In our
group, online images with high soft tissue contrast and low noise were
obtained using the flat-panel detector. An unambiguous separation of
soft tissues represented by tissue equivalents of 1cm thickness was
achieved.
The Timepix-detector was shown to be able to register single ions in and
around proton and carbon ion fields. Using the energy calibration of each
pixel, it was found to provide accurate measurements of particle energy
loss in silicon in the plateau region. The size of the pixel-cluster activated
by a single particle shows strong dependence on the particle type and is
thus the second promising parameter to separate ions, even within
phantoms and for real patient fields. This project is carried out in frame
of the Medipix Collaboration.
P08.04
Measurement of radiation quality and mean LET using fibercoupled Al2O3:C detectors
1
2
1
3
S. Greilich , C. E. Andersen , F. A. Klein , O. Jäkel ;
1
German Cancer Research Center (DKFZ), Division of Medical Physics
2
in Radiation Oncology, Heidelberg, Germany, Technical University of
Denmark, Risø National Laboratory for Sustainable Energy, Radiation
3
Research Division, Roskilde, Denmark, University Hospital of
Heidelberg, Department of Radiation Oncology and Radiation Therapy,
Heidelberg, Germany.
Luminescence-based radiation dosimeters, such as LiF, CaF2 or
Al2O3:C, are widely used in medical radiation dosimetry. But their use in
connection with clinical proton and ion beams is anything but
straightforward. Here, ionization density effects militate against a welldefined dose-response relation. On the other hand, this also means that
luminescent dosimeters feature significant additional information on the
irradiation process. Accordingly, we are investigating their ability to
assess radiation quality in ion beams, especially with respect to LET. In
this connection, recently developed thin-layer fibers with sensitive
volumes of approx. 100 µm can help to resolve the steep gradients
found in ion treatment fields.
Our study analyses approx. 400 measurements (from Cs-137, kV and
MV X-ray, proton and Carbon beams) for correlations between beam
quality, dose, and dose-rate on the one hand and prompt
radioluminescence (RL) and optically stimulated luminescence (OSL) on
the other.
We find a clear dependence of the RL- and OSL-related parameters on
mean LET and absorbed dose. By contrast, we find no correlation with
the dose rate. Using suitable calibration, this can provide a relatively
inexpensive method for monitoring beam characteristics. It also casts an
additional slant on the ongoing discussion of the benefits of LEToptimized therapy with a verification tool for treatment plans.
P08.05
Dosimetric Characterization of Scanned Ion Beam Treatment Fields
1
1
1
1
1
K. Henkner , B. Ackermann , S. Brons , N. Chaudhri , S. Ecker , M.
1
1
1
1
1
1,2
Ellerbrock , P. Heeg , O. Nairz , J. Naumann , M. Winter , O. Jäkel ;
1
Heidelberg Ion Beam Therapy Center, Heidelberg, Germany,
2
Department of Radiation Oncology, Heidelberg, Germany.
Introduction: The first clinically operating ion beam facility for scanned
proton and carbon ion beams was built in Heidelberg and is treating
patients since November 2009. The beam application system and
treatment planning system (TPS) is based on the experience acquired
during
the
pilot
project
at
the
Helmholtzzentrum
für
Schwerionenforschung (GSI) in Darmstadt. At GSI a beam line and a
TPS for patient treatment with carbon ions was designed and
successfully applied for over 10 years. Together with Siemens Health
Care AG, a commercially certified medical product for ion beam therapy
was developed.
Material and Methods: As a part of the commissioning at HIT, the
medical physics team verifies the accuracy of the calculated dose with
the TPS by measuring absolute doses in a water phantom. The
measured values are later on compared to the calculated values
regarding the dose values, field size, lateral and distal penumbra and
range of the ion fields.
For the dose calculations we assigned a target region by contouring
cubes in a water phantom CT data set centered at 50, 125 and 200mm
depth, with side length of 30 and 60mm in the TPS. The cubes were
placed symmetrically around the isocenter. One proton and carbon ion
field optimized to a physical dose of 1Gy was applied to the target
volume. The physical pencil beam settings were 6mm FWHM for carbon
ions and 10mm or 8mm for protons. For carbon ions a mini-ridge filter
was used. After calculating the treatment plan, the dose was
recalculated on a verification setup including 24 pinpoint chambers at
different positions in a water phantom. These dose values were
compared to the measurement which was performed with the same
setup as used for the calculation. Hence, our measurement system is
included in the TPS allowing absolute dose plan verification.
Furthermore, we calculated and measured treatment fields of different
TPS software versions.
Results and Discussion: The difference between measurement and
calculation for our standard plan (60mm length at 125mm depth) is less
than 2% in the high dose region for protons and carbon ions. The
difference between measurement and calculation in the lateral
penumbra and the position of the lateral 90% dose value is less than
1.5mm and 2.5mm for carbon ions and protons, respectively. For the
range the difference is less than 0.5mm. The measurement, beam
application and the setup uncertainty are estimated to 3% in dose and
0.5mm in position. For special cube configurations, e.g. small fields, we
observed a difference in the dose distribution of the two treatment
planning versions installed so far, as well as for the two ion species. This
is due to different physical beam models. However, the treatment
planning software is still under development and a new version will be
installed at HIT in summer this year and will further reduce the observed
deviations between measurements and calculations.
Dr. Olaf Nairz now at EBG MedAustron, Wiener Neustadt, Austria
P08.06
Strahlentherapieplanung für Ionen: Verbesserung der
Reichweitenbestimmung mit Hilfe des Dual Energy CT
1
1
1
1,2
N. Hünemohr , S. Greilich , C. Gillmann , O. Jäkel ;
1
Deutsches Krebsforschungszentrum, Abteilung Medizinische Physik in
2
der Strahlentherapie, Heidelberg, Germany, Universitätsklinikum
Heidelberg, Abteilung Radioonkologie und Strahlentherapie, Heidelberg,
Germany.
In der Therapieplanung für Ionenstrahlen werden derzeit Röntgen-CT107
Daten zur Berechnung der Reichweite der Ionen im Gewebe verwendet.
Hierfür wird eine Kalibrationstabelle im Planungssystem hinterlegt,
welche die CT-Zahlen in Ionenreichweiten übersetzt („Hounsfield LookUp Table”). Die Abweichungen bei der Korrelation von CT-Zahlen
(Photonenabsorptionskoeffizient) zu Ionenreichweiten betragen ungefähr
1-3 % und können zu erheblichen Unsicherheiten in der
Dosisberechnung führen.
Durch neuartige Dual-Energy CT-Geräte können simultan zwei CTZahlen für zwei verschiedene Photonenspektren bestimmt werden, über
die direkt die Elektronendichte und effektive Ladungszahl Zeff extrahiert
werden können.
Wir stellen unsere Untersuchungen vor, inwieweit diese beiden
Gewebeparameter die Reichweitenbestimmung für Ionen und somit die
Dosisplanung verbessern können.
Hierzu wurde mit Hilfe von Gewebephantomen (Gammex RMI) und
weiteren Materialien im Siemens Somatom Definition Flash Scanner des
DKFZ bei Röhrenspannungen von 80 kVp und 140 kVp (+ Zinnfilter)
eine neue
Kalibrationstabelle erstellt. Diese korreliert die
Elektronendichte zu der Ionenreichweite und ist - im Gegensatz zur
bisherigen bi-linearen Beziehung zwischen CT-Zahl und Reichweite linear. Sie weist außerdem erheblich kleinere Abweichungen zu den
gemessenen Werten der Reichweite (max. 1 % statt 8 %) auf.
In einer Therapieplanungsstudie mit Phantommaterialien, in der drei
idealisierte Szenarien (Kopf, Prostata, PMMA Phantom) betrachtet
wurden, konnten diese verringerten Abweichungen in eine signifikante
Verbesserung der Zielvolumen-Abdeckung übersetzt werden. Um die
mögliche Verbesserung im Patienten beurteilen zu können, wurden die
12
relativen Reichweiten von Kohlenstoffionen ( C) in einem Schweinekopf
gemessen und mit den Vorhersagen aus einer herkömmlichen CT- und
der neuartigen DECT-Kalibrationstabelle verglichen. Hierfür konnten 25
verschiedene Strahlwege durch das Gewebe mit Hilfe einer variablen
Wassersäule am Heidelberger Ionenstrahl-Therapiezentrum vermessen
werden. Im Einklang mit den geringeren Abweichungen der neuen
Kalibration zeigt sich, dass sich mit Hilfe des DECT die Ionenreichweiten
um ca. 3 % (absolut) besser bestimmen lassen.
Als Ausblick wird die Möglichkeit diskutiert, den zweiten extrahierten
Parameter (die effektive Ladungszahl) für eine weitere Verbesserung
Reichweitenbestimmung mit Hilfe des DECT zu nutzen.
P08.07
On the feasibility of macro Monte Carlo for protons
M. K. Fix, D. Frei, W. Volken, E. J. Born, P. Manser;
Division of Medical Radiation Physics, Inselspital - University of Bern,
Bern, Switzerland.
Introduction: In the case of electron beams, the macro Monte Carlo
(MC) method is a well-established method enabling accurate and
efficient dose calculations in clinical routine [1,2]. In principle this method
should also lead to an efficiency gain for MC proton dose calculation.
This work is a feasibility study for a new macro MC technique for proton
beams.
Method and Materials: Analogous to the electron macro MC, the
approach for the proton macro MC (pMC) is a local to global MC
method. For this purpose, the local simulations using the MC code
Geant4 have been carried out for mono-energetic protons ranging from
10 to 250 MeV impinging perpendicularly on water slabs of thicknesses
varying between 1 and 10 mm. In these simulations multiple scattering,
elastic interactions and ionizations have been taken into account for the
scoring. Although also inelastic hadron interactions have been
simulated, they have not been used for the scoring except for the
number of occurrences, since in the present work this interaction type is
not yet considered. During the local simulation the information such as
the lateral displacement, the energy loss and the direction distributions
for the protons has been scored in histograms. These histograms have
been converted into probability density functions (PDFs) preserving
existing correlations between the lateral displacement and the direction
of the protons. The pMC method consists of stepwise transporting
protons by selecting appropriate slab thicknesses and by means of
sampling from corresponding PDFs. The sampled energy loss is
deposited along the path between the entrance and exit positions of the
proton for the current step. For validation purposes, dose distributions for
protons of different mono-energetic proton pencil beams impinging on a
water phantom have been calculated using pMC and Geant4 with a dose
3
grid resolution of 2x2x1 mm . The resulting integral depth dose curves
and dose profiles have been compared.
Results: The calculated integral depth dose curves agree better than
1% or 1 mm for all pencil beams considered. The agreement between
the dose profiles at several depths in water is within 1% or 1 mm for all
energies and depths. The pMC dose calculations are about a factor of
200 faster than the corresponding Geant4 calculations.
Conclusion: The results of the dose comparisons demonstrate the very
accurate and efficient calculation of dose distributions for protons in
water using the newly developed macro MC method. In future, pMC
108
will be extended to include patient materials and the inelastic particle
transport in order to allow patient dose calculations for proton beams.
This work was supported by Varian Medical Systems.
References
[1] H. Neuenschwander and E.J. Born, “A macro Monte Carlo method for
electron beam dose calculations,” Phys Med Biol 37, 107-25 (1992).
[2] M.K. Fix, D. Frei, W. Volken, H. Neuenschwander, E.J. Born, P.
Manser, ”Monte Carlo dose calculation improvements for low energy
electron beams using eMC,” Phys. Med. Biol. 55, 4577-88 (2010).
P08.08
Accounting for inter-fractional organ motion with use of CBCT in
spot-scanning proton radiation therapy for prostate cancer
1,2
1
1
J. G. Gora , M. Stock , D. Georg ;
Division of Medical Radiation Physics, Department of Radiotherapy,
2
Medical University Vienna, Vienna, Austria, EBG MedAustron GmbH,
Wiener Neustadt, Austria.
1
Introduction: Anatomic variations in the pelvic area can affect the
delivered dose distribution in scanned proton beam therapy. The
purpose of this planning study was to investigate the most robust margin
strategy to account for inter-fractional motion in prostate cancer.
Material & Methods: Nine prostate cancer patients were arbitrarily
selected. For each, one planning CT and 7 weekly CBCTs were
acquired. CBCTs were registered to the planning CT and prostate,
rectum, rectal wall, bladder and bladder wall were delineated on each
data set. All structures defined on the CBCT were mapped on the
planning CT. The following planning target volume (PTV) approaches
were investigated: a) PTV10mm - extension of clinical target volume
delineated on planning CT (called CTVct) by 10mm uniform margin, b)
PTVmod- CTVct extended by 5mm in LR, AP, 8mm in IS direction and c)
PTVITV - created by summing contours of the CTVct and CTVs
delineated on five CBCTs acquired during the first week, plus a margin
of 3mm in LR, IS and 5mm in AP direction. For each PTV approach
proton plans were created on the planning CT using a spot-scanning
technique based on 2 lateral fields utilizing the treatment planning
system XiO (ELEKTA). The prescribed dose for the PTV was 78Gy. The
plan was accepted when 95% of the prescribed dose was delivered to
95% of the PTV. Dose constraints for bladder and rectum were based on
in-house IMRT prostate IMRT protocol. The dosimetric impact of organ
motion on targets and OARs were assessed via DVH analysis using
structures variations extracted from CT and CBCT information (Fig. 1).
Results: DVHs of PTVs and CTVct revealed that for all 3 approaches
changes in the dose to 2% of the volume (D2) and the median dose
(Dmedian) were not substantial (largest difference is 41cGy), slightly
bigger difference was observed in D98 where PTVITV, PTVmod and
PTV10mm get 72.1Gy, 70.8Gy and 71.4Gy, respectively. In terms of
coverage, PTVITV was superior, the volume receiving 98% (V98%) of the
dose was 7% higher than for PTVmod and PTV10mm. Also the PTVITV
approach seemed to be more robust to organ motion, V98% for the CTV
derived from weekly CBCTs information was 99.2%±0.9%, while for
PTVmod plans and the PTV10mm plans V98% for CTV was 95.4%±4.3%.
and 98.8%±1.3%. The rectal wall sparing for the PTV10mm method was
the worst, the V40% was on average more than 10% higher compared to
PTVmod and PTVITV plans and 7.5% higher for the V70% comparing to the
PTVmod plan. Sparing the bladder wall was best for PTVmod plan, both
V40% and V70% were lower compared to other methods.
Conclusion: The ITV approach was superior in terms of coverage and
rectal wall sparing compared to other approaches, although PTVmod
method was best in terms of both bladder and rectal wall sparing.
However this approach might be not sufficient to account for organ
motion. Margins in the PTV10mm method were large enough to consider
organ motion but it comes with the cost of higher doses to OARs.
dosimetric consequences of the delivery of a treatment field with two
different beam weight distributions to a moving target. Furthermore, we
propose an alternative objective for beam weight optimization that could
make treatment plans more robust against motion effects.
A treatment field with two different beam weight distributions as seen in
figure 1 was considered for the treatment of a moving target in the liver.
Both beam weight distributions achieve a comparable, homogeneous
dose in the target in the static case. In the following we name the left
beam weight distribution the “gradient”-case and the right distribution the
“smooth”-case.'[GRAFIK1]'
First consequences of a single spot displacement were investigated for
both cases. In the “gradient”-case there exist a few spot positions where
a displacement would result in severe dose errors. For the remaining
spot positions a displacement would have negligible consequences. In
the “smooth”-case exist in total more spot positions where a
displacement could lead to significant dose errors. These errors would,
however, be smaller than in the “gradient”-case.
Secondly, consequences on the timing of delivery for iso-layered
rescanning (quasi constant spot dose per visit) were investigated for
both beam weight distribution cases. Iso-layered rescanning aims to
break down any regularity and repetition in the delivery in order to avoid
interplay effects. This is fulfilled in the “smooth”-case. In this case, in
each re-scan a fraction of spot acquires its total dose and thus will not to
be revisited in the next re-scan. Consequently, the number of spot
positions visited per re-scan varies for each re-scan, avoiding regularity
in the spot-delivery-time-structure. In the “gradient”-case however the
iso-layered re-scanning approach does not overcome the regularity in
the spot-delivery-time-structure. Here a high fraction of spot positions will
only be visited once (all the low weighted spots receive their total dose
during the first scan) and all the remaining (high weighted) spot positions
will experience a scaled rescanning, which is sensitive to interplay
effects.
These two examples show that different beam weight distributions can
have a significant effect on the robustness of scanned proton plans
delivered to moving targets. As a possible alternative objective to targetdose-conformity, beam-weight-homogeneity should be investigated and
considered for 4D treatment plan optimization in scanned particle
therapy.
P08.09
Beam weight optimization in treatment planning for moving targets
- prospects and challenges of this additional degree of freedom in
scanned particle therapy
1
2
1,3
A. Knopf , S. Zenklusen , A. Lomax ;
1
2
Paul Scherrer Institut, Villigen, Switzerland, National Institute of
Radiological Sciences Research Center for Charged Particle Therapy,
3
Chiba, Japan, ETH, Zurich, Switzerland.
Actively scanned particle therapy may deliver highly conformal and
homogeneous dose distributions to geometrically complex, static targets
while sparing adjacent critical structures. However, when moving targets
are treated with actively scanned particle beams, target dose conformity,
as well as target dose homogeneity, is compromised. One way to reduce
motion effects is optimized 4D treatment planning. Parameters that
should be considered to be optimized include for example the number of
fields per plan and the field directions. In scanned particle therapy, the
beam weight distribution offers an additional degree of freedom to be
optimized. For static targets, the objective for the beam weight
optimization is target dose conformity. We question if this is still the
optimal choice of objective for moving targets. In this work, we discuss
Figure 1: Dose distribution (upper row) and beam weight distributions
(lower row) for the “gradient”-(left) and the “smooth”-case (right),
respectively.
P08.10
Auswirkung von metallischen Positionierungsmarkern und
Lagerungshilfen auf die Dosisverteilung in der Protonentherapie
von Augentumoren
J. Heufelder, R. Stark, D. Cordini, A. Weber;
Charité - Universitätsmedizin Berlin, Berlinprotonen am HZB, Berlin,
Germany.
109
Einleitung: In der Protonentherapie von Augentumoren werden für die
Verifikation der korrekten Lagerung des Auges knöpfförmige
Markierungsplättchen (Clips) aus Tantal mit einem Durchmesser von
2,5mm und einer Dicke von 0,3mm verwendet. Mit Lidhaltern aus
Federstahl wird versucht, die Augenlider aus dem Bestrahlungsfeld
herauszuziehen. Planerisch und lagerungstechnisch besteht die
Möglichkeit, dass Tantalclips oder Lidhalter ganz oder teilweise in das
Bestrahlungsfeld ragen können. Wir untersuchten den Einfluss von
Tantalclips und Lidhaltern auf die Dosisverteilung.
Material und Methode: Es wurden Phantome mit speziellen
Einpassungen für Clips und Lidhalter angefertigt, die es ermöglichen,
zweidimensionale Dosisverteilungen mit einem hochauflösendem
Szintillatorfolien/CCD-Kamera-System in beliebiger Tiefe zu messen. Als
Phantome standen zur Verfügung: Ein Plexiglasphantom mit 5,3 mm
Dicke, in dem fünf Tantalclips unter verschiedenen Winkeln implantiert
wurden, eine Plexiglasplatte mit fünf Federstahlstiften (Lidhaltermaterial)
unterschiedlicher Länge, einer liegend und vier herausstehend, und ein
Augenlidmodell aus tierischem Gewebe mit eingesetztem Lidhalter. Bei
allen Messungen wurde der Abstand von Blende zu Phantom konstant
gehalten.
Ergebnisse: Im Clipschatten ist die Dosis auf im Mittel 80% reduziert.
Steht der Clip parallel zur Einstrahlrichtung, fällt die Dosis hinter dem
Clip sogar auf bis zu 50% ab. An den Kanten der Clips und in den
Löchern wurde eine Erhöhung der Dosis auf bis zu 115% bzw. 130%
gemessen. Der Effekt ist abhängig von der Ausrichtung der Clips im
Protonenfeld und der Messtiefe.
Direkt hinter dem Lidhalterdraht wird die Dosis auf 85% reduziert. In der
Tiefe verbreitert sich dieser Dosisschatten, und die minimale Dosis
beträgt 90%. Im Bereich der Krümmung der Lidhalter beträgt die Dosis
hinter dem Lidhalter 65% (oberflächennah) und 80% (in der Tiefe). In der
direkten Umgebung der Lidhalter erhöht sich die Dosis auf ca. 105%.
Schlussfolgerungen: Durch die deutlich höhere Dichte und
Kernladungszahl der Tantalclips und der Lidhalter gegenüber Gewebe
werden die Protonen stärker gestreut und deren Reichweite lokal
reduziert. Dies führt zu einer Überhöhung der Dosis in unmittelbarer
Umgebung der Clips und Lidhalter sowie zu einer signifikanten
Reduktion der Dosis in ihrem Schatten.
Durch geschicktes Aufnähen der Clips und der Wahl einer geeigneten
Einstrahlrichtung in das Auge können die Clips so positioniert werden,
dass sie bei der Bestrahlung die Dosisverteilung im klinischen
Zielvolumen nicht beeinflussen. Die Lidhalter sollen so gesetzt werden,
dass die Dosisverteilung im Planungszielvolumen davon nicht betroffen
ist.
P08.11
Die Robustheit von stark modulierten Schwerionenfeldern
gegenüber Strahlprofilschwankungen
1
1
1
2
D. Kellner , U. Weber , M. Witt , K. Zink ;
1
Partikel-Therapie-Zentrum Marburg, Marburg, Germany,
2
Universitätsklinikum Gießen und Marburg, Klinik für Strahlentherapie
und Radioonkologie, Marburg, Germany.
Eine konforme Strahlentherapie mit dem am Partikel-Therapie-Zentrum
Marburg eingesetzten Raster-Scan-Verfahren setzt einen hohen
Qualitätsstandard voraus. Durch die komplexe und zugleich
empfindliche
Strahlführung
des
Beschleunigers
entstehen
Abweichungen zwischen den geplanten und den tatsächlichen lateralen
Strahlprofilen. Ziel der Arbeit ist es, den Einfluss diese für das
Bestrahlungsplanungssystem unsichtbare Profilschwankungen zu
quantifizieren und in einen klinischen Zusammenhang zu stellen.
Aktuelle Filmmessungen am PTZ Marburg zeigen, dass Abweichungen
der Strahlprofile sowohl in deren Form, als auch in deren Breite
auftreten. Die Abweichungen der Strahlbreite liegen im Bereich von ± 10
% in Luft im Isozentrum und werden über die gut bekannten
Wechselwirkungen (nahezu ideal gaußförmig) mit Materie teilweise
gedämpft, ehe sie therapierelevante Tiefen erreichen. Abweichungen
der Strahlform treten insbesondere bei den ionenoptisch verbreiterten
Strahlprofilen (größte Fokusstufe) auf. Die schiefen Strahlprofile lassen
sich gut über eine Doppel-Gauß-Funktion mit separatem Zentrum und
Gewicht parametrisieren.
Durch die hohe Anzahl an Strahlpositionen wird bei der
Dosisoptimierung ein enorm hoher Freiheitsgrad erreicht. Um die
Dosisgradienten so steil wie möglich an die Kontur des Zielvolumens
anzupassen, werden bei der Optimierung (als mathematisch) beste
Lösung die Teilchenfluenzen insbesondere an den Rändern stark
moduliert. Dieser Effekt verstärkt den Einfluss der abweichenden
Strahlprofile und erhöht zugleich die Bestrahlungszeiten, da drastische
Fluenzschwankungen
innerhalb
einer
Iso-Energie-Schicht
die
Intensitätsstufe einschränken. Zur Auswertung wird eine eigens für diese
Arbeit konzipierte Optimierung eingesetzt, in der optimierte
Teilchenbelegungen iteriert werden, die zu idealen Dosisverteilungen
(Minimaldosis: > 99,9 % / Maximaldosis: < 100,1 %) führen. Auf
Grundlage
dieser
Teilchenbelegungen
werden
110
Dosisnachberechnungen mit abweichenden Strahlformen und -breiten
separat durchgeführt.
Die Ergebnisse zeigen, dass die Strahlprofiländerungen insbesondere
bei stark modulierten Plänen einen signifikanten Einfluss auf die
resultierenden Dosisverteilungen haben können. Zu erwarten sind starke
Modulationen bei einem großen Überlapp der einzelnen Strahlpositionen
(großes Verhältnis von Strahlbreite zum Abstand der Strahlpositionen),
bei
komplex
geformten
Zielvolumina,
bei
starken
DichteInhomogenitäten und bei der hochgradig flexiblen IMPT-Optimierung.
Des Weiteren wird gezeigt, dass bei der Bestrahlungsplanung eine
Regulierung der Homogenität zwingend erforderlich ist, da sonst die
üblichen Iterationsverfahren mit ihrem mathematischen Optimum eine
aus klinischer Sicht kontraproduktive Fluenzverteilung erzielen, weil
diese Pläne unrobust gegenüber Strahlprofilschwankungen sind. Die mit
einer Regulierung erhaltenen Teilchenbelegungen entsprechen nicht
mehr dem mathematischen Optimum, bieten jedoch eine deutliche
höhere Robustheit gegenüber nicht-gaußförmigen Strahlprofilen. Zudem
wird ersichtlich, dass homogene Teilchenbelegungen auch robuster
gegenüber Reichweitenunsicherheiten und Bewegungsartefakten sind.
P08.12
Robustheit gegen die interne Target-Bewegung von
Bestrahlungsplänen für fraktionierte Prostata-Bestrahlungen in der
Partikeltherapie
1,2
1
1
1,2
S. Gräf , U. Jelen , F. Ammazzalorso , K. Zink , R. Engenhart1
1
Cabillic , A. Wittig ;
1
Philipps-Universität Marburg, Partikel-Therapie-Zentrum Marburg,
2
Marburg, Germany, Technische Hochschule Mittelhessen, Giessen,
Germany.
Einleitung: Die Partikel-Strahlung zeigt ein charakteristisches
Energiedepositionsprofil
mit
steilen
lateralen
Kantenabfällen,
eindeutigem Maximum am Ende der Reichweite (Bragg-Peak) und über
dieses hinaus nahezu keiner Dosisabgabe. Diese Eigenschaften
ermöglichen eine sehr präzise Dosisapplikation, dem großen Vorteil der
Partikeltherapie für hochkonforme Bestrahlungen und Dosisreduktion.
Bei Prostata-Behandlungen stellt die interne Organ-Bewegung ein
relevantes Problem dar. Durch die Korrektur der Patientenposition
entsteht das Risiko, dass sich die Tiefe des Bragg-Peaks ändert und in
einer unerwünschten Veränderung der Dosisverteilung resultiert. Die
Partikeltherapie gilt daher als empfindlich gegenüber internen TargetBewegungen, weshalb die Repositionierung des Patienten mit größter
Sorgfalt angewandt werden sollten. In vorhergehenden Studien wurden
die Auswirkungen definierter Verschiebungen in bestimmte Richtungen
auf die Dosisverteilung einzelner Fraktionen analysiert. Der Einfluss der
interfraktionellen Prostata-Verschiebung auf die gesamte Behandlung
mit einer Vielzahl von fraktionierten Bestrahlungen (ca. 20 bis 30
Sitzungen) wurde in dieser Studie simuliert und die Konsequenzen
systematisch untersucht. Ziel war es, Informationen bezüglich
notwendiger Saum- und Schwellenwerte für Ablaufprotokolle zu
erlangen.
Material & Methoden: Die tägliche Prostata-Bewegung wurde für vier
Patienten simuliert, indem die CTV-Kontur in jeder Fraktion versetzt und
der ursprüngliche Plan neu berechnet wurde (mit und ohne
Repositionierung). Die Werte für die interfraktionelle interne TargetBewegung der Prostata beruhen auf Angaben veröffentlichter Studien.
Die Bestrahlungspläne wurden mit aktiver Raster-Scanning-Technik und
der Bestrahlungsplanungssoftware TRiP98 (GSI, Darmstadt, Germany)
erstellt. Für beide Fälle und für verschiedene CTV-PTV-Säume wurde
jeweils der 95%-CI (Coverage-Index) bestimmt.
Ergebnisse: Für CTV-Verschiebungen innerhalb des benutzten PTVSaums liegt der 95%-CI in beiden Fällen, mit und ohne
Repositionierung, bei über 99,0 %. Wenn die Target-Verschiebung über
den PTV-Saum hinausgeht, fällt ohne Repositionierung der 95%-CI ab,
begründet durch die steilen Dosisgradienten in der Partikeltherapie. Mit
Repositionierung verbessert sich die Target-Abdeckung erheblich. Der
Effekt der Verschiebungen in unterschiedliche Richtungen in den
Einzelfraktionen minimiert sich in der Summe (über den gesamten
Behandlungszeitraum) zu einer akzeptablen Abweichung der
kumulierten Dosisapplikation.
Fazit: Die Simulation repräsentiert die klinische Situation einer ProstataBehandlung in der Partikeltherapie. Der Effekt der internen TargetBewegung auf die fraktionierte Bestrahlung bezüglich der
Dosisveränderung ist ersichtlich. Im Vergleich zu den im Vorhinein
untersuchten Auswirkungen auf Einzelfraktionen ist der Effekt auf die
komplette Prostata-Bestrahlung wesentlich geringer. Ist die Minimierung
systematischer Positionierungsabweichungen gewährleistet, stellen sich
die Konsequenzen für die gesamte Dosisapplikation als vertretbar dar.
P08.13
Doppelblendensystem zur Penumbrareduzierung an einem 68 MeV
Protonenstrahl
1
1
1
2
1
J. Heufelder , J. Müller , R. Stark , B. Karle , A. Weber ;
Charité - Universitätsmedizin Berlin, Berlinprotonen am HZB, Berlin,
2
Germany, Charité - Universitätsmedizin Berlin, Klinik für
Strahlentherapie, Campus Benjamin Franklin, Berlin, Germany.
1
Einleitung: Ziel der Strahlentherapie ist die Bestrahlung des Tumors bei
gleichzeitiger maximaler Schonung des gesunden Gewebes. Bei der
Bestrahlung eines diffusen Irismelanoms ist das klinische Zielvolumen in
der Regel die gesamte Iris inklusive der Augenvorderkammer.
Typischerweise wird das Zielvolumen bei uns mit einer 18mm
durchmessenden Kreisblende bestrahlt. Der sich direkt hinter der Iris
befindliche torusförmige Ziliarkörper ist bei dieser Therapieform das
primäre Risikoorgan, da er neben der Linsenaufhängung auch für die
Regulierung des Augeninnendrucks verantwortlich ist. Ein großer Teil
der Dosisbelastung im Ziliarkörper entsteht durch den Halbschatten des
Protonenfeldes. Eine deutliche Reduzierung des Halbschattens würde
zu einer Dosisreduzierung am Ziliarkörper führen. Ein entsprechendes
Verfahren, bei dem eine zweite kleinere Blende direkt vor dem Auge den
Halbschatten reduziert, wird im Folgenden vorgestellt.
Material und Methode: Das untersuchte Doppelblendensystem besteht
aus zwei Rundblenden. Die erste Blende befindet sich am Ende des
Strahlrohrs, wo gewöhnlich der individuelle Patientenkollimator
positioniert ist. Der Abstand der Oberflächen von Kollimator zum Auge
des Patienten bzw. zum Phantom beträgt 70 mm. Die verwendete
Primärblende ist aus Messing gefertigt, hat eine Dicke von 8mm, einen
Durchmesser von 44mm und eine Blendenöffnung von 18mm im
Durchmesser. Auf Stiften wird eine zweite Messingblende, 8mm dick
und 30mm im Durchmesser mit einer runden Blendenöffnung von
14mm. Sie ist in einem Abstand von 15mm vor der Phantomoberfläche
positioniert.
Als Phantom wurden Plexiglasplatten unterschiedlicher Dicke
verwendet. Hinter dem Phantommaterial wurde die Dosisverteilung mit
einem
hochauflösendem
Szintillatorfolien/CCD-Kamera-System
zweidimensional gemessen.
Für einen ausgedehnten Bragg-Peak mit 7,0mm Reichweite und 7,0mm
Modulation, also den Bestrahlungsparametern zur Bestrahlung eines
diffusen Irismelanoms, wurden Querprofile an der Phantomoberfläche
und in 3,4mm wasseräquivalenter Tiefe durchgeführt, einmal mit der
Primärblende allein, wie bei der Irisbestrahlung als Vergleich, sowie mit
der zweiten konzentrischen Blende dicht vor dem Phantom. Aus den
Messungen wurde der Halbschatten bestimmt.
Ergebnisse: Der Halbschatten (90%-10%) beträgt bei der alleinigen
Verwendung des Primärkollimators 3,1mm, beim Einsatz des
Doppelstreusystems 0,6mm. Zugleich wird die Homogenität des
Strahlenfeldes um 5% verbessert. Eine unsaubere Zentrierung der
Blenden zum Protonenstrahl führte bei uns zu einer Verschlechterung
der Symmetrie des Feldes um bis zu 3%.
Schlussfolgerung: Die Messungen zeigen, dass durch die Verwendung
eines Doppelblendensystems der Halbschatten massiv reduziert werden
kann. Die Reduktion des Halbschattens ergibt sich aus dem nahezu
identischen Abstand vom virtuellen Fokus zur Blende bzw. zur
Augenoberfläche. Die sekundäre Blende ließe sich bei der Bestrahlung
eines diffusen Iristumors korrekt positionieren. Für den klinischen
Einsatz muss die Justierung bzw. Zentrierung der sekundären Blende
noch verbessert werden. Eine entsprechend verbesserte Blende ist
zurzeit in Arbeit.
Strahlcharakteristik neue Methoden der Echtzeit-Monitorierung und
Bestimmung der Absolutdosis erforderlich.
Im Beitrag wird der aktuelle Stand der Entwicklung der Laser basierten
Protonentherapie
erläutert,
Ergebnisse
von
systematischen
strahlenbiologischen Zellbestrahlungen mit Laser beschleunigten
Protonen präsentiert und die dafür benutzte Dosimetrie vorgestellt.
Methode: Die Untersuchung der strahlenbiologischen Wirksamkeit
Laser beschleunigter Protonen erfolgte am DRACO Lasersystem des
HZDR. Die Laserleistung von 150 TW ermöglichte, durch Fokussierung
der intensiven Laserlichtpulse auf eine 2 μm dickes Ti-Folientarget, die
Beschleunigung von Protonen bis zu einer Energie von 20 MeV bei einer
Pulswiederholfrequenz von etwa 0,2 Hz (siehe Abbildung) [1]. Für die
Zellbestrahlungen war es notwendig nach dem Folientarget einen
Energiefilter,
sowie
das
integrierte
Dosimetrieund
Zellbestrahlungssystem (IDOCIS) zu entwickeln und einzubauen [2].
Das IDOCIS ermöglichte neben der Positionierung der zur
bestrahlenden Zellkultur eine präzise Echtzeit-Monitorierung und
Bestimmung der absolut applizierten Dosis. Für die Bestimmung der
Absolutdosis wurden radiochromische Filme (RCF) und ein Faraday-Cup
eingesetzt. Die Echtzeit-Monitorierung aller Bestrahlungen erfolgte mit
einer dedizierten Transmissions-Ionisationskammer, die mit Hilfe der
radiochromischen Filme und dem Faraday-Cup kalibriert wurde. Des
Weiteren kamen im IDOCIS zur Messung des Energiespektrums
Szintillatoren sowie Stapel von radiochromischen Filmen und
Festkörperspurdetektoren (CR39) zum Einsatz.
Die biologische Wirkung Laser beschleunigter Protonen wurde in vitro
für die Tumor-Zelllinie SKX bestimmt, wozu Dosis-Effekt-Kurven für das
klonogene Zellüberleben und die residuellen DNA-Doppelstrangbrüche
24 h nach Bestrahlung gemessen wurden. Als Referenz fanden
Zellbestrahlungen an einem Tandembeschleuniger mit kontinuierlichem
Protonenstrahl statt. Die den Zellen applizierten Strahlendosen lagen im
Bereich von 0,3 bis 4 Gy.
Ergebnisse: Die Energie der Laser beschleunigten Protonen am Ort der
Zellbestrahlung lag im Bereich von 5-15 MeV. Aufgrund der
Flugzeitunterschiede wurde eine Pulsdauer von ca. 1 ns erreicht. Die
mittlere Pulsdosis betrug 80 mGy und die mittlere Dosisleistung lag bei
0,5 Gy/min. Durch die präzise Dosimetrie und die Echtzeit-Monitorierung
konnte, trotz laserbedingter Fluktuation des Teilchenflusses und des
Energiespektrums, eine genaue Dosisapplikation auf die zu
bestrahlenden Zellkulturen ermöglicht werden. Die gemessenen DosisEffekt-Kurven zeigen keine signifikant veränderte radiobiologische
Wirkung auf die Zellen zwischen Laser und konventionell beschleunigten
Protonenstrahlen.
Schlussfolgerung: Die erfolgreich durchgeführte systematische
Zellbestrahlung mit exakter Dosimetrie ist ein wichtiger Schritt auf dem
Weg der Entwicklung einer Laser basierten Protonentherapieanlage.
Weitergehende Untersuchungen zur radiobiologischen Wirksamkeit
müssen am Tiermodell folgen. Für die klinische Anwendung der Laser
Beschleuniger ist eine technologische Weiterentwicklung vor allem im
Hinblick auf die Erhöhung der Protonenenergie und Stabilität notwendig.
Diese Arbeit wurde durch das BMBF gefördert (03ZIK445).
Literatur:
[1] S.D. Kraft, et al.: New J. Phys. 12 (2010) 085003.
[2] C. Richter, et al.: Phys. Med. Biol. 56 (2011) 1529-1543.
Bild:
Experimentaufbau am Lasersystem DRACO mit Energiefilter und
integriertem Dosimetrie- und Zellbestrahlungssystem (IDOCIS).
P08.14
Dosimetrie und biologische Wirksamkeit Laser beschleunigter
Protonen
1,2
1,2
3
3
M. Schürer , M. Baumann , E. Beyreuther , T. Burris-Mog , Y.
1
1,3
1
3
1
Dammene , W. Enghardt , L. Karsch , S. Kraft , F. Kroll , L.
1
3
3
1
1
Laschinsky , E. Lessmann , J. Metzkes , D. Naumburger , M. Oppelt ,
1,3
3
3
3
1,3
C. Richter , U. Schramm , M. Sobiella , K. Zeil , J. Pawelke ;
1
OncoRay - National Center for Radiation Research in Oncology,
2
Technische Universität, Dresden, Germany, Universitätsklinikum Carl
3
Gustav Carus, Dresden, Germany, Helmholtz-Zentrum Dresden
Rossendorf (HZDR), Dresden, Germany.
Hintergrund: Die neuartige Technologie der Protonenbeschleunigung
mit Hochintensitätslasern verspricht kompakte und effiziente Anlagen für
die
Protonentherapie.
Gegenüber
einem
konventionellen
Protonenbeschleuniger hat die Laser beschleunigte Teilchenstrahlung
kürzere Pulslängen von wenigen ps und eine wesentlich geringere
Pulswiederholfrequenz von einigen Hz. Deswegen muss, um eine
gleiche Bestrahlungsdauer zu gewährleisten, die Pulsdosisleistung um
10
höher sein. Diese neuartigen
einen Faktor von etwa 10
Strahlparameter könnten zu einer veränderten biologischen Wirkung der
Strahlung führen. Darüber hinaus sind durch diese andere
P08.15
Test of different pixel detectors for laser-driven accelerated particle
beams
1
1
2
2
S. Reinhardt , W. Assmann , C. Granja , F. Krejci ;
1
Fakultät für Physik, Ludwig-Maximilians Universität München, Garching,
2
Germany, Institute of Experimental and Applied Physics, Czech
Technical University in Prague, Prag, Czech Republic.
One of the main goals of the Munich-Centre for Advanced Photonics
(MAP) is the use of laser driven accelerated (LDA) particle beams for
radiation therapy.
Due to the unique acceleration process LDA particle beams have very
111
special properties. In particular they are created in ultra-short bunches of
9
2
high intensity with typically more than 10 particles/cm /ns, making
online characterization of these beams an ambitious task. State of the
art in LDA particle detection are especially non-electronic detectors like
radiochromic films, imaging plates or nuclear track detectors positioned
behind a Thomson spectrometer. They give only offline information
about the particle pulse position and intensity as they require minutes to
hours to be processed. This calls for a new highly sensitive online device
for an application in radiation therapy where quantitative real time
monitoring of the beam is an essential prerequisite.
Therefore, we are using pixel detectors for real time detection of LDA ion
pulses. As each pixel represents a small detector unit in itself, only a
small fraction of the whole beam will be detected by it and so problems
due to detector saturation might be overcome by this new approach. Due
to excellent spatial resolution of pixel detectors additional information
about the spatial fluence distribution is obtained.
First tests of different types of pixel detectors have been performed at
the Munich 14 MV Tandem accelerator in an 8-20 MeV proton beam in
dc and pulsed irradiation mode, the latter simulating LDA-like ns ion
pulses. Additional tests have been done at therapeutically relevant
energies of up to 200 MeV. For detection tests we chose the positionsensitive quantum-counting semiconductor pixel detector Timepix which
also provides per-pixel energy- or time-sensitivity. Additionally other
types of commercially available pixel detectors are being evaluated such
TM
as the RadEye 1, a large area (25 x 50 mm²) CMOS image sensor
based on a photodiode array in a matrix of 512 x 1024 pixels with 48 µm
pixel pitch.
All of these devices are able to resolve individual particles of the beam
with high spatial and energy-resolution down to the level of µm and tens
of keV, respectively. Nevertheless, in case of the commercially available
systems which are optimized for optical detection, energy resolution is
limited due to the fact that energy loss and energy loss straggling are of
the same order of magnitude.
Various beam parameters of the accelerator were thus evaluated and
verified showing that pixel detectors are promising candidates for
monitoring the spatial dose distribution for future application of LDA
beams in radiation therapy. The different readout modes of the Timepix
detector which is operated with an integrated readout interface allow
online visualization of single and time-integrated events. Therefore
Timepix offers the greatest potential in analyzing the beam parameters.
This work is carried out in the frame of the Medipix Collaboration and the
DFG funded cluster of excellence Munich Centre for Advanced
Photonics (MAP).
P08.16
Optimizing the experimental components required in a laseraccelerated particle cell irradiation
1
2,3
2
3
2
3
N. Humble , K. Allinger , J. Bin , P. Hilz , D. Kiefer , W. Ma , S.
3
1
1
2
1
Reinhardt , T. Schmidt , O. Zlobinskaya , J. Schreiber , J. J. Wilkens ;
1
Dept Radiation Oncology, Klinikum Rechts der Isar der Technischen
2
Universität München, München, Germany, Max-Planck-Institut für
3
Quantenoptik, München, Germany, Ludwig-Maximilians-Universität,
München, Germany.
Developments in laser-accelerated heavy-ion technologies offer much
potential in radiation therapeutic applications. Before these can be
realised however, preclinical cell irradiation studies must first be carried
out in order to compare the biological effects of laser-accelerated
particles against those established characteristics of particles beams
already used in the clinic. The nature of laser-accelerated particle
production already alludes to difficulties in establishing the necessary
conditions for radiation therapy. A non-monoenergetic energy spectrum,
insufficient beam energy and a pulsed rather than continuous beam are
but some of the issues addressed here. Therefore preliminary in-vitro
cell irradiations are carried out with the ATLAS Ti-Sapphire laser at the
Max Planck Institute of Quantum Optics using a 1 J beam in 45 fs at 10
Hz. Here we describe the methods employed in order to meet the
conditions required for a laser-accelerated proton cell irradiation with
beam energies between 5 and 10 MeV.
Although the beam is produced over a broad energy spectrum, to an
extent, this can be accounted for using two permanent quadrupole
magnets. Simulations predict a narrow energy spectrum resulting in the
beam energy being collimated to ±100 keV. The quadrupoles have
already been tested using a proton beam at a conventional tandem
accelerator in Munich and have also demonstrated focusing and an
improvement in intensity of nearly an order of magnitude greater than
the diverging beam used without the quadrupoles.
A dipole magnet later determines the energy of the beam after which the
appropriate design of an exit window prior to the cell container is
necessary to account for beam production being under vacuum
conditions. Once the beam passes through the cell holder, allowing the
cells to be in a single layer, perpendicular to the beam axis, radiochromic
film is employed as a means of dosimetry directly behind the cells.
112
The films are used here so as to offer absolute dosimetry and spatial
information on the beam profile with sub-mm resolution to allow for
localisation of the dose distribution and subsequent cell damage. Cell
damage is analysed using the gamma-H2AX assay. A foreseeable
difficulty in the set-up includes accounting for a low fluence affecting the
minimum determinable dose visible upon the radiochromic films. The
dose however is delivered in one shot thus minimising uncertainties
regarding dose delivery inhomogeneities.
Despite the obvious limitations in such an experiment, we present here
the physical problems needed to be addressed in a laser-accelerated
heavy ion cell irradiation with some possible solutions. These initial
experiments are a biological pre-cursor necessary before clinical
applications can start to be considered.
Supported by DFG Cluster of Excellence: Munich-Centre for Advanced
Photonics.
P08.17
Radiobiology of Antiprotons - Studying the Potential of Antiprotons
for Cancer Therapy
1,2
3
4
5
M. H. Holzscheiter , J. Alsner , N. Bassler , F. Currell , J. N.
5
5
3
2
Kavanaugh , G. Schettino , B. Singers Sørensen , S. Sellner , T.
2
2
Straße , S. Tegami ;
1
Department of Physics & Astronomy, University of New Mexico,
2
Albuquerque, United States, Max Planck Institut für Kernphysik,
3
Heidelberg, Germany, University Hospital Aarhus, Aarhus, Denmark,
4
Department of Physics and Astronomy, University of Aarhus, Aarhus,
5
Denmark, Centre for Cancer Research and Cell Biology, Queen’s
University, Belfast, United Kingdom.
The use of heavy charged particles for therapeutic purposes is expected
to provide a significant improvement of the therapeutic window
compared to standard x-ray therapy. This is due to the improved energy
deposition profile, exhibiting a well-defined peak (Bragg peak) at a depth
in the target controllable by the initial energy of the particles. In addition,
ions heavier than protons exhibit an increased biological efficiency
compared to x-rays. Compared to protons and heavier ions, antiprotons
deposit additional energy at the end of their range due to the annihilation
events. This energy is deposited partially due to low energy fragments
and recoil ions, which results in an expected additional enhancement of
the relative biological efficiency (RBE) in the Bragg peak. The relative
magnitude of the energy deposition in the Bragg peak of antiprotons
compared to protons of the same penetration depth was measured to be
a factor of two by Sullivan at LEAR/CERN in 1985, but no study of the
biological effects had been conducted prior to the AD-4/ACE experiment
start-up at CERN a few years ago.
Here we use 126 MeV antiprotons extracted from the AD in pulses of 3 x
107 particles with 500 ns width and 90 second spacing to irradiate
biological cell samples. Using V79 Chinese Hamster cells embedded in
gelatin we have measured clonogenic cell survival vs. depth for
antiprotons and compared them to results obtained with protons and
carbon ions. Monte Carlo calculations using FLUKA were benchmarked
against measurements using ionization chambers and Alanine pellets.
Shot-to-shot beam profile monitoring with a silicon pixel detector enables
us to establish a physical dose profile along the beam axis, which can be
used to extract a value for the RBE of antiprotons. Using these results
we can generate comparative dose plans for protons, antiprotons, and
carbon ions that can be used to identify possible scenarios where
antiprotons could provide a clinical advantage.
In separate experiments we have studied DNA damage and formation of
micronuclei in human cells outside the primary radiation field to assess
possible effects of the low background radiation due to the medium- and
high-energy secondary products from antiproton annihilation events.
Furthermore we have demonstrated the feasibility of real-time imaging of
the stopping distribution of antiprotons in the target through observation
of the pions and gammas created during annihilation.
We will present the experimental set-up, the current status of the
measurements, and future plans of this project.
Poster 09: Dosimetrie und
Qualitätssicherung in der
Strahlentherapie
P09.01
Korrektion des Volumeneffektes von Ionisationskammern in der
Photonendosimetrie
1
2
2
2
D. Harder , H. Looe , T. N. Stelljes , B. Poppe ;
1
2
Georg August Universität, Göttingen, Germany, Pius-Hospital und Carl
von Ossietzky Universität, Oldenburg, Germany.
In der modernen Strahlentherapie werden so kleine Feldgrößen
verwendet, dass der "Volumeneffekt" einer Ionisationskammer, die
bauartbedingte gewichtete Mittelung über die vorliegende örtliche
Dosisverteilung aufgrund des endlichen Messvolumens der Kammer, oft
nicht mehr vernachlässigt werden kann. In einem Beitrag zu dieser
Tagung [1] wurde der Volumeneffekt als Faltung der wahren örtlichen
Dosisverteilung
mit
einer
ortsabhängigen,
gaußförmigen
Ansprechfunktion der Ionisationskammer beschrieben. Als Korrektion
kommen numerische Entfaltungsverfahren in Frage. Im folgenden wird
gezeigt, wie auch einzelne Messwerte, z.B. in Feldmitte gemessene
Outputfaktoren, korrigiert werden können.
Zur Ableitung eines Korrektionsfators kV für den Volumeneffekt einer
Ionisationskammer stellt man das mit einem punktförmigen Detektor
(Index p) erhaltene Messwertprofil Mp(x) durch ein Polynom 6. Grades
dar, wobei die Glockenform (a1 = 0, a3 = 0, a5 = 0) berücksichtigt ist:
4
6
Mp(x) = a0 + a2 x² + a4 x + a6 x (1)
Dann beträgt das mit der Ansprechfunktion der wirklichen
Ionisationskammer, einer normierten eindimensionalen Gaußverteilung
mit der Standardabweichung σ, an der Stelle x berechnete gewichtete
Mittel (Index m):
4
6
2
4
Mm(x) = Mp(x) + (a2 σ² + 3 a4 σ + 15 a6 σ ) + (6 a4 σ + 45 a6 σ ) x² + 15
2 4
a6 σ x (2)
Daraus folgt der Korrektionsfaktor für den Volumeneffekt am Punkt x =
0:
4
6
-1
kV = Mp(0)/Mm(0) = [1 + (a2 σ² + 3 a4 σ + 15 a6 σ ) / a0] (3)
In einem Maximum von Mm(x) ist stets a2 < 0 und daher kV > 1. Bei der
Ableitung von Gl. (2) ist angenommen, dass Gl. (1) für ein Intervall von x
gilt, das gleich oder größer als + 3σ ist, so dass die Integration
näherungsweise von - ∞ bis + ∞ erstreckt werden darf. Das erreicht man
dadurch, dass man aus der Menge der Abtastpunkte eine Untermenge
so auswählt, dass die Kurvenanpassung über einen Bereich der Breite +
3σ erfolgt.
Bei dieser Formulierung des Korrektionsfaktors kV ist vorausgesetzt,
dass der Verlauf des mit einem praktisch punktförmigen Detektor, z.B.
einer Si-Diode, messbaren, wahren Profils Mp(x) bekannt ist. Eine
Formulierung des Korrektionsfaktors kV für den Fall, dass nur der Verlauf
der durch den Volumeneffekt gestörten Funktion Mm(x) bekannt ist,
erhält man durch Anpassung eines Polynoms 6. Grades an Mm(x): Mm(x)
4
6
= b0 + b2 x² + b4 x + b6 x (4)
Mittels Gleichsetzen von Gl. (4) und (2) und Koeffizientenvergleich erhält
4
6
Gl. (3) die Form kV = Mp(0)/Mm(0) = [1 + (b2 σ² - 3 b4 σ + 15 b6 σ ) / (b0 4
6 -1
b2 σ² + 3 b4 σ - 15 b6 σ )] (5)
Wie Gl. (3) und (5) zeigen, ist es für ihre praktische Anwendung
ausreichend, wenn die Quotienten a2/a0, a4/a0, a6/a0, b2/b0, b4/b0 und
b6/b0 bekannt sind. Es reicht daher aus, wenn es sich bei den
Messwertprofilen Gl. (1) und (4) um Relativwerte handelt. Diese neue
Methode wird in diesem Tagungsbeitrag auch für zwei Dimensionen
dargestellt und auf Beispiele angewandt.
[1] T Stelljes et al, Beschreibung der Halbschattenverbreiterung durch
das endliche Volumen von Ionisationskammern mit Hilfe von Gaußschen
Faltungskernen. Dreiländertagung Med. Physik 2011.
P09.02
Berechnung des Strahlungsqualitäts-Korrektionsfaktors kQ für
Flachkammern in klinischen Elektronenfeldern unter
Referenzbedingungen
1,2
Darin bedeutet Dw die Wasser-Energiedosis im Referenzpunkt, Ddet die
über das aktive Volumen der Kammer gemittelte Energiedosis des
Detektors am Messort. Q bezeichnet die Strahlungsqualität der
Elektronenstrahlung die als Halbwertschichtdicke R50 angegeben wird.
Gemäß Hohlraumtheorie kann kQ auf das Verhältnis der
Stoßbremsvermögen sw,a und die kammerabhängigen Störungsfaktoren
p zurückgeführt werden:
1,3
K. Zink , J. Wulff ;
Technische Hochschule Mittelhessen, Institut für Medizinische Physik
2
und Strahlenschutz, Giessen, Germany, Universitätsklinikum Gießen3
Marburg, Klinik für Strahlentherapie, Marburg, Germany, Helios-Kliniken
Krefeld, Klinik für Strahlentherapie, Krefeld, Germany.
1
Einleitung: Das deutsche Dosimetrieprotokoll DIN 6800-2 empfiehlt für
die Referenzdosimetrie in klinischen Elektronenfeldern den Einsatz von
kalibrierten
Flachkammern.
Das
gegenüber
der
Referenzstrahlungsqualität Co-60 veränderte Ansprechvermögen der
Ionisationskammern wird durch den Korrektionsfaktor kQ berücksichtigt
(kE in der Nomenklatur von DIN), der sich per Definition wie folgt ergibt:
Darin bezeichnet pwall den Wandstörungsfaktor und pcav den
Fluenzstörungsfaktor. Typischerweise wird der Korrektionsfaktor kQ in
den von der Bauart der Kammer unabhängigen Teil k’Q (Verhältnis der
Stoßbremsvermögen sw,a) sowie den von der Bauart der Kammer
abhängigen Teil k‘‘Q (Verhältnis der Störungsfaktoren p) aufgeteilt.
Gemäß DIN 6800-2 gilt für den Wandstörungsfaktor pwall in klinischen
Elektronenfeldern pwall = 1, das gleiche gilt für den Fluenzstörungsfaktor
pcav wenn es sich um eine Flachkammer mit ausreichender
Guardringbreite handelt. Für diesen Kammertyp resultiert damit ein
Korrektionsfaktor k‘‘Q, der von der Elektronenenergie unabhängig ist:
Bei nicht ausreichender Guardringbreite (z.B. Markuskammer) ist
zusätzlich der von der Elektronenenergie abhängige Störungsfaktor
(pcav)Q zu berücksichtigen, der das Hereinstreuen von Elektronen in das
aktive Kammervolumen insbesondere bei niedrigen Elektronenenergie
korrigiert:
Material und Methode: Es wurden die Korrektionsfaktoren kQ und k‘‘Q
entsprechend Gleichung (1) und (2) sowie die Störungsfaktoren pwall und
pcav für vier Typen von Flachkammern (Roos, Advanced Markus, Markus
und NACP Kammer) mit Hilfe des Monte Carlo Codes EGSnrc [2] für
den gesamten Bereich klinischer Elektronenenergien berechnet (5 - 21
MeV).
Die
Kammergeometrien
wurden
entsprechend
der
Herstellerangaben (Fa. PTW) bzw. für die NACP Kammer nach
Literaturangaben erstellt. Die Simulationen erfolgten jeweils unter den in
DIN
6800-2
angegebenen
Referenzbedingungen
in
einem
3
Wasserphantom der Größe 30x30x30 cm . In vorhergehenden
Simulationen ist der Einfluss geringfügiger Variationen der
Kammergeometrie,
wie
sie
möglicherweise
durch
den
Produktionsprozess verursacht werden könnten, untersucht worden.
Abbildung 1: Bauartabhängiger Korrektionsfaktor k‘‘Q gemäß Gleichung
(2) als Funktion des Strahlungsqualitätsindex R50 klinischer
Elektronenstrahlung unter Referenzbedingungen für vier Typen von
Flachkammern. Die durchgezogenen und gestrichelten Linien geben den
Korrektionsfaktor nach DIN 6800-2 und IAEA TRS-398 wieder. Für die
NACP Kammer sind zwei unterschiedliche Kammergeometrien simuliert
worden, die sich im Wesentlichen durch die Dicke des Eintrittsfensters
unterscheiden (NACP-IAEA, NACP-Chin [3, 4]).
Ergebnisse und Diskussion: Wesentliches Ergebnis der vorliegenden
Studie sind die in Abbildung 1 wieder gegebenen bauartabhängigen
Korrektionsfaktoren k‘‘Q für die vier untersuchten Flachkammertypen. Für
die Kammern mit ausreichend breitem Guardring (Roos, Advanced
Markus, NACP) ergibt sich im Gegensatz zu DIN 6800-2 eine
signifikante
Abhängigkeit
des
Korrektionsfaktors
mit
der
Elektronenenergie. Die Abweichungen gegenüber den in DIN 6800-2
angegebenen Korrektionsfaktoren betragen zwischen 0.8 und 1.5%.
Dagegen zeigt die Markuskammer einen nahezu von der
Die
Elektronenenergie
unabhängigen
Korrektionsfaktor
k‘‘Q.
Abweichungen gegenüber den nach DIN empfohlenen Werten beträgt
113
für diese Kammer bis zu rund 3%. Zur weiteren Klärung des gezeigten
Anspechvermögens sind die Störungsfaktoren pwall und pcav der
Kammern berechnet worden, die in dem Beitrag diskutiert werden.
P09.04
Bestimmung des Ansprechvermögens von Alanin in MVXBestrahlungsfeldern - Ein Vergleich zwischen FLUKA und EGSnrc
P. von Voigts-Rhetz, M. Kunz, K. Zink;
Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany.
P09.03
Dosimetrie von Photonen-Strahlenfeldern im Subzentimeterbereich
1
2
2
K. Dörner , B. Poppe , H. Haak ;
2
Abt. Strahlentherapie AKH Celle, Celle, Germany, Carl-von-Ossietzky
Universität, Oldenburg, Germany.
1
Einleitung: Ziel dieser Arbeit ist es, für die Strahlentherapie von
Zielvolumen mit Abmessungen von unter einem Kubikzentimeter,
Kollimatoren herzustellen und dosimetrisch zu vermessen. Besonderes
Augenmerk wird dabei auf das Ortsauflösungsvermögen der Detektoren
gelenkt.
Material und Methoden: Für den Linearbeschleuniger "PRIMUS" der
Firma Siemens werden aus Blei-Legierung verschiedene Kollimatoren
gegossen und für die Verwendung im Satellitenträger-Einschub montiert.
Aus dem gleichen Material wird für das Brachytherapiegerät
"µSelectron" der Firma Theranostik / Nukletron ein Zylinder mit
zentralen, sternförmig auf einen Zielpunkt ausgerichteten Bohrungen
gefertigt.
Die so erzeugten Strahlenfelder werden mit Hilfe verschiedener
Messmethoden erfasst und ausgewertet:
Untersucht werden luftgefüllte Ionisationskammern verschiedener
Abmessungen, Dioden, eine flüssigkeitsgefüllte Ionisationskammer,
Röntgenfilme, Gafchromik-Filme und ein selbst hergestelltes MRDosimetriegel
Zur Überprüfung der Tauglichkeit der Detektoren für diese Messaufgabe
werden Kantenprofile im Strahlenfeld gefahren: Die Kante einer
Wolframplatte mit den Abmessungen 10 cm x 10 cm x 1 cm wird mit
Hilfe vom Lichtvisier auf der Satellitenträgerplatte entlang der FeldHauptachsen ausgerichtet. Bei einem Fokus-Oberflächenabstand von
100 cm werden im Wasserphantom in verschiedenen Tiefen Querprofile
der Dosisverteilung eines 20 cm x 20 cm Strahlenfeldes mit den
Detektoren aufgenommen. In analoger Weise werden Filme und MRGelproben mit der Stufen-Dosisverteilung an der Kante belichtet.
Die gewonnenen Kurven der Kantenstreufunktion werden differenziert
und die so entstandenen Linienstreufunktionen werden ausgewertet: Es
werden Gauss- und Lorenzkurven angepasst.
Zur
Erstellung
von
Bestrahlungsplanungstabellen
werden
Tiefendosiskurven und Querprofile für Kollimatoren mit den HalbwertsFeldbreiten von 2 mm bis 20 mm aufgenommen.
Für die MR-Gel-Dosimetrie wird Gel in Probenfläschchen bestrahlt und
gleichzeitig mit Referenzproben ausgewertet. Diese Vergleichsproben
sind zeitnah homogen mit bekannten Dosen von 0,00 Gy, 1,00 Gy, 2,00
Gy und 4,00 Gy bestrahlte Fläschchen mit dem gleichen Gel aus
derselben Produktions-Charge. Durch die gleichzeitige MR-Auswertung
können Einflüsse auf das Ergebnis durch unterschiedliche Produktions-,
Lagerungs-, Bestrahlungs- oder Auslesebedingungen vermieden
werden.
Ergbnis sind Bilder im DICOM-Format zu drei unterschiedlichen
Repetitionszeiten (ca. 70 msec, 140 msec und 280 msec). Damit stehen
für jeden Bildpunkt Intensitätswerte zu drei Zeitpunkten fest. Durch diese
Werte wird mit einem selbst geschriebenen Programm für jeden
Bildpunkt eine Exponentialfunktion gefittet. Die Werte der Exponenten
jedes Bildpunktes werden verglichen mit den Werten in den
Probefläschchen mit bekannter Dosis. Die Relation der ExponentenWerte ist ein Maß für die absorbierte Dosis.
Ergebnisse: Gezeigt werden Querprofile und Tiefendosiskurven der
erzeugten Strahlenfelder, wie sie mit den verschiedenen Detektoren
aufgenommen
werden.
Klar
ersichtlich
ist
eine
vom
Ortsauflösungsvermögen der Detektoren abhängige Verbreiterung der
gemessenen Profile.
Die aus den Kantenprofilen ermittelten Kurvenparameter der
Linienstreufunktion, können als Maß für das Ortsauflösungsvermögen
der Detektoren angesehen werden. Gezeigt werden die ermittelten
Halbwertsbreiten der an die Linienstreufunktionen angepassten
Glockenkurven im Vergleich zu den geometrischen Abmessungen der
Detektoren. Da Gaussfunktionen die Ausläufer der Messkurven nicht
perfekt abbilden, werden das System besser beschreibende
Lorenzkurven gefittet und deren Parameter ebenfalls dargestellt.
Diskussion: Es wird eine mit einfachen Mitteln realisierbare Methode
zur Erzeugung von Strahlenbündeln mit Durchmessern im
Millimeterbereich vorgestellt. Für die Dosimetrie eignen sich Detektoren
mit an die Aufgabe angepassten Auflösungsvermögen, insbesonders die
µLION von PTW, Gafchromik und MR-Gel. Zusätzlich zum
Ortsauflösungsvermögen spielt die spektrale Empfindlichkeit der
Detektoren eine Rolle.
114
Einleitung: Im Rahmen eines Benchmarks werden die Monte Carlo
Codes EGSnrc und FLUKA für den Einsatz im Bereich dosimetrischer
Fragestellungen untersucht. Hierzu wird das Ansprechvermögen als
Funktion der Strahlungsqualität Q für Alanindetektoren mit beiden Monte
Carlo Systemen untersucht und mit vorhandenen Daten verglichen.
Material und Methoden: Das relative Ansprechvermögen von Alanin
bei der Strahlungsqualität Q ist wie folgt definiert:
Hierbei beschreibt DAla die Energiedosis im Alanin/Paraffin-Pellet und
Dw die Energiedosis im Wasser. Die Indices Q bzw. Co beschreiben die
verwendete Strahlungsqualität Q respektive die Strahlungsqualität der
Referenzstrahlung Co-60.
Die Bestimmung des Ansprechvermögens erfolgte unter den in DIN
6800-2 [4] definierten Bezugsbedingungen für Co-60 bzw.
Referenzbedingungen für die Strahlungsqualitäten Q . Die hier
verwendeten Strahlungsqualitäten sind in Tabelle 1 als TPR 20/10
angegeben. Die Simulationsgeometrie zur Berechnung von rrel der
Alanindetektoren entspricht derjenigen von Anton et. al [3]. Die
geometrischen Abmessungen der Alaninpellets sowie deren
Zusammensetzung sind in Tabelle 2 angegeben.
Spektrum
60Co
6 MV
18 MV
Tabelle 1: Verwendete Strahlungsqualitäten
Strahlungsqualitätsindex TPR 20/10
0.566
0.660
0.780
Die verwendeten Alaninpellets befinden sich in einer PMMA-Halterung,
die eine Wandstärke von 1 mm besitzt. Das geometrische Zentrum der
Pellets wird für Co-60 in die Bezugstiefe (5 cm) und für die
Strahlungsqualitäten Q in die Referenztiefe (10 cm) im Wasserphantom
(30x30x30 cm³) positioniert. Die Feldgröße beträgt bei allen
Simulationen 10x10 cm² am Ort des Detektors.
Tabelle 2: Spezifikation der verwendeten Alanin/Paraffin-Pellets nach
Anton et al. [3]
Durchmesser
4.85 mm
Dicke
2.85 mm
Verhältnis Alanin zu Paraffin
10/11 Alanin zu 1/11 Paraffin
Effektive Dichte
1.22 g/cm³
Ergebnisse und Diskussion:
Die mittels FLUKA errechneten relativen Ansprechvermögen stimmen im
Rahmen der statistischen Unsicherheit (Erweiterungsfaktor k=2) sehr gut
mit eigenen EGSnrc Ergebnissen überein. Im Vergleich zu publizierten
Ergebnissen von Anton et al. [3] sowie von Zeng et al. [5] ist eine
tendenzielle Erhöhung um 0.4-0.5 % zu beobachten. Es muss erwähnt
werden, dass die Rechenzeiten von FLUKA diejenigen von EGSnrc
ungefähr um Faktor vier übersteigen.
Abbildung 1: Relatives Ansprechvermögen als Funktion der
Strahlungsqualität angegeben als TPR 20/10. Die Fehlerbalken geben
die statistischen Unsicherheiten (1σ).
Literaturverzeichnis:
[1] A. Ferrari et al. Fluka manual, program version 2008.
[2] Dave W.O. Rogers and Iwan Kawrakow. The EGSnrc Code System:
Monte Carlo Simulation of Electron and Photon Transport. NRC Report
PIRS-701, 2007.
[3] Anton et al. Response of the alanine/ESR dosimetry system to MV
Xrays relative to (60)Co radiation. Phys. Med. Biol., 53(10):2753-2770,
May 2008.
[4] DIN 6800-2 Dosismessverfahren nach der Sondenmethode für
Photonenund
Elektronenstrahlung
Teil
2:
Dosimetrie
hochenergetischer
Photonenund
Elektronenstrahlung
mit
Ionisationskammern, 2008.
[5] G. G. Zeng et al. An experimental and Monte Carlo investigation of
the energy dependence of alanine/EPR dosimetry: I. Clinical x-ray
beams. Phys Med Biol,
49(2):257-270, Jan 2004.
P09.05
Untersuchung der Energieabhängigkeit des
Strahlqualitätskorrektionsfaktors kE von Thermolumineszenz- und
Alanindosimetern in primärer Elektronenstrahlung
P. von Voigts-Rhetz, K. Zink;
Instituts für Medizinische Physik und Strahlenschutz, Gießen, Germany.
Einleitung: Für die Thermolumineszenzdosimetrie (TLD) in
Elektronenstrahlung
wurde
in
der
Vergangenheit
eine
Energieunabhängigkeit der eingesetzten Dosimeter aus experimentellen
Arbeiten abgeleitet [1,2]. Neben diesen experimentellen Untersuchungen
wurde auch aus Monte-Carlo Simulationen vergleichbarer Ergebnisse
erzielt [3]. So wird auch in der aktuellenDIN Norm 6800-5 [4] ein nahezu
konstanter Strahlqualitätskorrektionsfaktor kE als angegeben.
Material
und
Methoden:
Der
Korrektionsfaktor
des
Ansprechvermögens kE in Elektronenfeldern für in Co-60 kalibrierte
Detektoren ist wie folg definiert: kE=(DW/DTLD)E / (DW/DTLD)Co60
Darin bedeutet DW die Wasserenergiedosis, DTLD die Energiedosis im
TLD-Material Lithiumfluorid. E beschreibt die Strahlungsqualität der
Elektronenfelder, Co die Bezugsstrahlungsqualität.
Im Rahmen der Monte Carlo Simulationen wurden drei TLD 100 Rods
(1mm Durchmesser, 6mm Länge), bestehend aus Lithiumfluorid (LiF), in
ein 30 x 30 x 30 m³ Wasserphantom eingebettet (siehe Abbildung 1). Die
Rods befanden sich dabei in einer Halterung aus Polymethylmethacrylat
(PMMA).
Abbildung 1 Lage der Lif - Rods (grün) in der PMMA Halterung (rot)
Die Monte-Carlo Simulationen wurden mit der Software EGSnrc mit
egs_chamber [5] simuliert. Dies ermöglicht eine umfangreiche und
flexible Gestaltung des geometrischen Aufbaus. Der Versuchsaufbau
entspricht
den
Vorgaben
von
DIN
6800-5,
d.h.
die
Bestrahlungsfeldgröße der klinischen Elektronenfelder beträgt 20 x 20
cm², diejenige bei der Bezugsstrahlungsqualität Co-60 10 x 10
cm².DerFokus - Oberflächen - Abstand beträgt in allen Fällen 100 cm.
Die für die Referenzbedingungen verwendeten Elektronenspektren
stammen von einem simulierten Varian Clinac 2100C Beschleuniger
nach Ding et al. [6] und haben nominelle Energien von 6, 9, 12, 15 und
18 MeV. Die verwendeten Referenztiefen zref der Elektronenfelder sind
der Tabelle 1 zu entnehmen.
Tabelle 1 Strahlenqualität Q mit dazugehörender Referenztiefe zref
Energie [MeV]
zref [cm]
R50 [g/cm²]
6
1,48
2,63
9
2,30
4,00
12
3,01
5,18
15
3,80
6,50
18
4,53
7,72
Die Simulationen für das Co-60 Photonenfeld erfolgten in der
Bezugstiefe 5 cm.
Ergebnisse und Diskussion:
Der berechnete Korrektionsfaktor kE ist gemeinsam mit Literaturdaten in
Abbildung 2 wieder gegeben. Es zeigte sich kein signifikanter Einfluss
der Elektronenenergie auf das Ansprechvermögen. Im Rahmen der
statistischen Unsicherheit stimmen die Ergebnisse sehr gut mit
denjenigen von Mobit et al überein und sind im Mittel etwa 2% kleiner als
die in DIN 6800-5 angegebenen Werte.
Abbildung 2 kE von TLD 100 mit PMMA Halterung in Abhängigkeit der
nominellen Elektronenenergie, Fehlerbalken entsprechen ein Sigma
Unter identischen Simulationsbedingungen wurden Untersuchungen
mittels eines Alanin/Paraffins-Pellets und einer Roos-Kammer
durchgeführt. Das in Abbildung 3 wieder gegebene Verhältnis von Alanin
zu Lithiumfluoriden stimmt mit den Ergebnissen von Feist [1] überein.
Das Verhältnis der PTW - Rooskammer zu den TLD’s lässt auf eine
Energieabhängigkeit des Ansprechvermögens der Rooskammer
schließen, die in unabhängigen Monte Carlo Untersuchungenbereits von
Zink und Wulff gezeigt worden ist [7].
Abbildung 3 Verhältnis des Ansprechvermögens zwischen Alanin/Roos Kammer und TLD's
P09.06
Untersuchungen zur Reproduzierbarkeit der Messanzeige von
klinischen Dosimetern für Photonen-und Elektronenstrahlung
1
2
3
1
1
R. Gerlach , M. Breithaupt , M. Schöne , S. Ensminger , M. Janich ;
1
Klinik und Poliklinik für Strahlentherapie, Martin-Luther-Universität
2
Halle-Wittenberg, Halle (S.), Germany, Deutsches
3
Krebsforschungszentrum (DKFZ), Heidelberg, Germany, Julius Wolf
Institut & Berlin-Brandenburg School for Regenerative Therapies,
Charite, Berlin, Germany.
Einleitung/Zielstellung: Therapiedosimeter, die zur Bestimmung der
Wasserenergiedosis
verwendet
werden,
müssen
bestimmte
Qualitätskriterien erfüllen, um eine exakte dosimetrische Basis für die
Strahlentherapie zu gewährleisten. Ein wesentlicher Qualitätsparameter
für derartige Dosimeter stellt die Reproduzierbarkeit der Messanzeige M
dar. Ein Therapiedosimeter besteht in der Regel aus der Kammereinheit
(Ionisationskammer) und dem Anzeigegerät, welche beide die
Messanzeige beeinflussen können. Entsprechend des LMKM [1] kann
ein Anzeigegerät für mehrere Ionisationskammern verwendet werden,
wenn beide Komponenten erfolgreich „messtechnisch kontrolliert“ (MTK)
wurden. Dies bedeutet, dass eine beliebige Kombination aus MTKzertifizierten Anzeigegeräten und Ionisationskammern Messanzeigen
liefern sollte, die innerhalb der vom Hersteller angegebenen
Messunsicherheiten liegen. In der vorliegenden Arbeit wird für zwei
Photonen- und drei Elektronenenergien die Messanzeige von
Therapiedosimetern, bestehend aus unterschiedlichen Kombinationen
von erfolgreich „messtechnisch kontrollierten“ Anzeigegeräten und
Ionisationskammern, bei unterschiedlichen Bestrahlungsbedingungen
115
untersucht und mit der vom Hersteller angegebenen Messunsicherheit
verglichen. Zusätzlich wurden die Messungen bei verschiedenen
Strahlenfeldgrößen und unterschiedlichen Messtiefen durchgeführt.
Methodik: Dosimeter - Die Untersuchungen erfolgten mit drei
baugleichen
Anzeigegeräten
vom
Typ
UNIDOS,
fünf
3
Ionisationskammern (Schlauchkammern, Messvolumen=0,125cm ) vom
Typ TM31002 (2x) , M31002 (2x) und TM31010 (1x) für die
Photonendosimetrie und drei Roos-Kammern (Flachkammern) vom Typ
M34001 für die Elektronendosimetrie der Firma PTW Freiburg®, welche
unterschiedlich kombiniert wurden. Die berechneten Mittelwerte,
Standard-abweichungen und die relativen Abweichungen vom Mittelwert
der Messanzeige resultieren aus jeweils 5 Einzelmessungen für die in
Tabelle 1 angegebenen Bestrahlungsbedingungen.
Messphantom/geometrische Bedingungen
Die Messungen wurden in einem RW3 Platten-Phantom (Firma PTW
Freiburg®) unter den in Tabelle 1 angegebene Strahlenfeldbedingungen
durchgeführt.
Ergebnisse/Diskussion: Alle Messunsicherheiten werden als relative
erweiterte Messunsicherheit (rel. e. M.) angegeben. Sie errechnet sich
aus dem Produkt der Typ-A-Messunsicherheit (Standardabweichung des
Mittelwertes) und dem Erweiterungsfaktor k=2. Aus Voruntersuchungen
zur Reproduzierbarkeit der Stabilität der Dosisabgabe der
Linearbeschleuniger und des Messaufbaus resultiert eine rel. e. M. von
0,05%. Sie wird im Weiteren bei der Angabe der rel. e. M.
vernachlässigt.
Abbildung 1 zeigt beispielhaft die relativen Abweichungen der einzelnen
für die unterschiedlichen Strahlenfeldgrößen bestimmten Messanzeigewerte ΔM(%) vom Mittelwert der Messanzeige aller 15
Dosimeterkombinationen für eine 15 MV Photonenstrahlung in 5cm RW3
-Tiefe. Für die in Abbildung 1 angegebenen Bestrahlungsbedingungen
lässt sich eine rel. e. M. von ca. 0,3% berechnen.
Die Auswertung aller Messungen liefert eine maximale rel. e. M. von
etwa 0,5% bei der Photonen- und ca. 0,8% bei der Elektronendosimetrie. Die Werte der ermittelten, relativen erweiterten
Messunsicherheit für die Messanzeige M sind somit geringer als der in
der DIN6800-2 bzw. der vom Hersteller angegebene Wert von ca. 1%.
Die Untersuchung aller Dosimeterkombinationen zeigt, dass die relativen
Abweichungen des Anzeigewertes vom Mittelwert in keinem Fall ±1,5%
überschreiten.
Eine Energieabhängigkeit der Dosimeteranzeige konnte weder bei
Photonen- noch Elektronenstrahlung nachgewiesen werden.
Literatur: [1] Leitfaden zu messtechnischen Kontrollen von
Medizinprodukten mit Messfunktion
(LMKL) Teil 2 (Stand 30.04.2009)
[2] DIN6800-2 (April, 2010)
116
P09.07
The clinical advantages of implementing an iterative deconvolution
algorithm and adaptive action levels into the DAVID system
1
2
1
H. K. Looe , D. Harder , B. Poppe ;
1
Pius-Hospital und Carl von Ossietzky Universität, Oldenburg, Germany,
2
Medical Physics and Biophysics, Georg August University, Göttingen,
Germany.
The DAVID system (PTW-Freiburg, Germany), a multi-wire
transmission-type ionization chamber mounted between the MLC and
the patient, is the first transmission monitor with spatial resolution used
for the independent in-vivo verification of IMRT deliveries. A onedimensional record of the lateral beam profile is permanently shown in
the control room and compared with the reference profile stored during
plan verification.
The signal recorded by each wire is mainly owed to the secondary
electrons originating from the front and back plates irradiated by photons
that have passed through the leaf pair aperture associated with this wire
but it is also subjected to blurring caused by transport of secondary
electrons with an origin in other parts of the chamber. In order to correct
for this blurring effect, an iterative deconvolution algorithm has been
developed in order to obtain the true 1D photon fluence profile (Looe et
al 2010). The lateral response function (LSF) of each measurement wire
has been pre-acquired by irradiating the DAVID chamber with only the
leaf pair associated with this wire opened. The deconvolution of the
DAVID signal is performed online during patient irradiation.
Figure 1 shows the increase of the error detection efficiency of the
DAVID chamber due to this deconvolution. For given percent changes of
the leaf opening (abscissa), the percent changes of the deconvolved
fluence values (squares) are about twice the percent changes of the
original signal values (circles). After the deconvolution, the constant of
proportionality between the relative beam opening and the relative
change of the deconvolved fluence value is almost equal to unity (full
line). Thus the deconvolution of the DAVID signals enhances the error
detection efficiency by a factor of two, and this algorithm has been
implemented in the latest DAVID-software.
Figure 1: The percentage changes of the fluence profiles (squares) and
the signal profiles (circles) as a function of the percentage changes in
nominal leaf opening for a 10 cm x 10 cm square field (closed symbols)
and an IMRT segment (open symbols).
In order to activate adaptive action levels for error-prone percent fluence
values, the DICOM RT-plan file is imported into the DAVID software.
Adaptive action levels are derived based on the opening of each MLC
leaf pair and the tolerated absolute leaflet error. In a measurement
channel where the corresponding MLC leaf pair opening is small, a given
magnitude of leaflet error would induce a large percentage deviation in
the fluence value, hence a higher action level can be defined and vice
versa. For example, a 2 mm leaflet error will translate into 10% deviation
in the fluence value for a 2 cm leaf aperture, but only into 2 % for a 10
cm wide leaf aperture. These leaf aperture dependent adaptive action
levels are input to the DAVID-software. Thus, while the implemented
iterative deconvolution of the DAVID signals increases the error
detection efficiency, the adaptive action levels are focusing on errors that
might have a relevant impact on the quality of the actual irradiation in
comparison with the plan.
P09.08
Qualitätssicherung an Linearbeschleunigern - Einsatz von
Flächendetektoren zur Konstanzprüfung
C. Heine, T. Koch;
Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg
- MVZ am Bruderwald, Bamberg, Germany.
Einleitung: Für die maschinenbezogene Qualitätssicherung an
Linearbeschleunigern kommen bei der Umsetzung der beiden
bestehenden Normen DIN 6847-5 und DIN E 6875-4 in vielen
Prüfpunkten Filme zum Einsatz. Mit Umsetzung des neuen DIN-Entwurfs
für die IMRT werden mehr Filme benötigt als bisher. Dies erhöht
einerseits die Anzahl benutzter Filme und damit die Verbrauchskosten,
andererseits wird ein Mehrfaches an Arbeitszeit für die Belichtung und
Auswertung
benötigt.
Deshalb
ist
es
vorteilhaft
die
Qualitätssicherungsmaßnahmen, welche bisher auf Filmaufnahmen
basierten durch Verfahren mit geeigneten Flächendetektoren zu
ersetzen.
Material und Methoden: Zur Durchführung standen neben dem bisher
verwendeten Gafchromic-Film EBT2, die Electronic Portal Image
Devices (EPID) der beiden Elekta-Synergy-Beschleuniger, das PTW7294
Array der Fa. PTW und das Delta der Fa. Scandidos zur Verfügung.
Folgende Prüfpunkte wurden untersucht: Nach DIN 6847-5: LichtfeldStrahlenfeld, 4-Quadrantenaufnahme, IZ-Kugel.
Nach DIN E 6875-4: Nennfeldgrösse-Strahlfeldgröße bei kleinen Feldern
(zentral und ausgelenkt), Picket-Fence-Test, Striped-Image, MLCTransmission
Am Beschleuniger wurden Feldsequenzen für alle o.g. Prüfpunkte
Punkte angelegt. Für komplexe Feldsequenzen, wie z.B. Picket-Fence
und kleine Feldgrössen, mit 5 mm zurückgezogener Back-up-Blende
erfolgte das Anlegen der Felder im Bestrahlungsplanungssystem
Pinnacle mit anschließendem Transfer an den Beschleuniger.
Zunächst wurden alle Prüfpunkte mit EBT2-Filmen gemessen und
ausgewertet. Anschließend erfolgten Vergleichsmessungen mit den
gleichen Feldanordnungen am EPID und/oder dem PTW729-Array. Der
4
Picket-Fence-Test wurde zusätzlich am Delta durchgeführt.
Für den Prüfpunkt Lichtfeld-Strahlenfeld mit dem EPID erfolgte die
Markierung des Lichtfeldes mit kleinen Stahlkugeln. Durch eine
geeignete Feldanordnung, lässt sich ein Gantrystern auf das PTW729Array belichten und auswerten.
Ergebnisse:
Lichtfeld-Strahlenfeld
und
Nennfeldgrösse
vs.
Strahlfeldgröße bei kleinen Feldern, 4-Quadranten-Aufnahme: Durch die
Auflösung des EPID von 0,25 mm lassen sich die Filme hier problemlos
ersetzen. Das PTW729 liefert aufgrund der Kammeranordnung im 10
mm Abstand bei kleinen Feldern zunächst schlechtere Ergebnisse.
Durch die in der Software integrierte Merge-Funktion lassen sich diese
jedoch verbessern, indem man mehrere Messungen im kleineren
Abstand durchführt und anschließend zusammenfügt.
Die Auswertung des Gantrysterns mit dem PTW729 liefert vergleichbare
Ergebnisse wie mit dem Film.
Auch für die Prüfpunkte Picket-Fence-Test und Striped-Image lassen
sich die Ergebnisse des EPID mit denen des Filmes vergleichen, das
PTW729 liefert für den Picket-Fence-Test trotz Merge Funktion
schlechtere Ergebnisse. Die Beurteilung eines Striped-Images kann als
ausreichend betrachtet werden.
Zusammenfassung: Das EPID eignet sich in fast allen Punkten gut als
Ersatz für die bisher verwendeten Filme. Die Auflösung ist ausreichend
und die Prüfpunkte können in viel kürzerer Zeit durchgeführt und
ausgewertet werden. Für den Prüfpunkt IZ-Kugel besteht beim EPID
bisher nicht die Möglichkeit einen Gantrystern zu belichten und aus den
überlagerten Bildern auf den Stern zurückzurechnen. Des Weiteren
unterliegt das EPID bei unterschiedlichen Gantrywinkeln dem
Schwerkrafteinfluss.
Das PTW729 ist als Beschleunigerunabhängiges System ebenfalls gut
geeignet die Filme zu ersetzen. Die Bestimmung der IZ-Kugel ist mit
ausreichender Genauigkeit möglich. Es ist jedoch hinsichtlich seiner
Auflösung nicht in allen Prüfpunkten als Filmersatz einsetzbar.
Der Film als Flächendetektor lässt sich durch die genannten Systeme
gut ersetzen. Damit können zum einen die Filmkosten auf ein Minimum
reduziert werden und die Prüfpunkte können in viel kürzerer Zeit
durchgeführt und ausgewertet werden.
P09.09
Können alle Filmtests in der DIN 6847-5 durch ein 2D-Array und
EPID ersetzt werden?
K. Treitz, R. Bauer, A. Block;
Institut für Medizinische Strahlenphysik, Klinikum, Dortmund, Germany.
Zielsetzung: Die Eignung eines 2D Arrays für geometrische Kontrollen
am Linac im Vergleich zu einem Film zu überprüfen. Alle
Konstanzprüfungen nach DIN 6847-5, bei denen Filmaufnahmen
ausgewertet werden sollen, durch Messungen mit 2D-Array zu ersetzen.
Methodik: a) Die Vorgaben der DIN 6847-5 wurden in ihrer Zielsetzung
auf Messungen mit dem 2D-Array MapCheck 2 (Fa. Sunnuclear), der für
einige Tests mit dem Hochpräzisionsmesstisch MotionSim (Fa.
Sunnuclear) betrieben wurde, umgestellt.
Für die Kontrolle Lichtfeld-Strahlfeld wird digital die Feldgröße
eingestellt, die Detektorebene in die Isozentrums (IZ)-Ebene gebracht
und die Kontrolle der Lichtanzeige auf dem Array nach dem Strahlensatz
vorgenommen.
b) Auch für die Tests zur numerischen Anzeige der Feldgröße und
Anzeige des Strahlenfeldes bzw. Zentralstrahls (8.1.1, 8.1.2, 8.1.3, 9.1,
9.2) wird die Diodenebene in die IZ-Ebene gebracht und die korrigierte
Feldgröße 6 cm x 8 cm auf der Array-Oberfläche mit einer Schablone
eingestellt. Die Feldgröße wird digital je einmal von größerer und
kleinerer Feldgröße kommend digital eingestellt und je eine Exposition
vorgenommen.
c) Kontrolle des IZ durch die Raumlaser erfolgt über eine zweite
Positionierung des 2D-Array. Verschiebung des Fadenkreuzes des 2DArray durch Verschieben des Tisches zur Deckungsgleichheit mit dem
Laserfadenkreuz. Feldgrößeneinstellung und Exposition wie unter b).
d) Zur Überprüfung der Anzeige des Strahlenfeldes bei ferngesteuerten
MLC (8.1.1, 8.1.2) wird die Detektorebene wieder in IZ-Ebene gebracht
und digital ein 20 cm x 20 cm Feld eingestellt und exponiert. Vergleich
zweier exponierter irregulärer Lamellenfelder mit Bezugsaufnahmen.
e) Zum Test der Positioniergenauigkeit bei asymmetrischer Einstellung
der Betriebsblenden wird ein 20 cm x 20 cm Feld aus 4 asymmetrischen
eingestellten und einzeln exponierten 10 cm x 10 cm Feldern
zusammengesetzt.
Ergebnis:
Verschiebungen
des
2D
Arrays
mit
dem
Hochpräzisionsmesstisch um 0,1 mm zeigten an den Feldrändern eine
signifikante Dosisänderung, so dass zwar nicht die physikalische
Ortsauflösung des Films erreicht wird, aber in der praktischen
Durchführung die Genauigkeit des Films übertroffen wurde.
a) Da die Feldkanten auf einer Detektorzeile liegen, ist die
Strahlfeldgröße bei 50% der Dosisausbeute im Zentralstrahl getroffen.
b) Der Lichtfeldvergleich wird anhand der Schablone, der
Strahlfeldvergleich durch Subtraktion der beiden Expositionen
vorgenommen.
c) Durch die digitale Anzeige der Tischposition kann eine Abweichung
des Lichtfeldfaden- und des Laserkreuzes in mm-Genauigkeit
angegeben werden.
d) Eine Halbschattenbreitenbestimmung ist mit dem 2D-Array aufgrund
beschränkter Ortsauflösung nicht mit hinreichender Genauigkeit zu
erreichen, kann aber durch eine Anschlussmessung an das EPID
erreicht werden. Bei Feldern, die die aktive Messfläche des MC 2 (32 cm
x 26 cm) überstrahlen, muss der SSD verringert werden.
e) Die Auswertung geschieht durch die Auslesung der Detektoren der
Mittelachse, deren rel. Wert 80 - 100% der Zentraldosis eines
Quadranten sein sollte. Bei Abweichungen muss der MLC neu kalibriert
werden. Die Bestimmung des Durchmessers (10.1) der IZ-Kugel ist nur
mit dem EPID möglich.
Schlussfolgerung: Bei den DIN 6847-5 Prüfungen lassen sich Filme
durch den 2D-Array MC2 ersetzen, die Auswertung ist genauer und
zeitsparender. Für die Tests, die eine hohe Ortsauflösung erfordern,
sollte der 2D-Array durch ein EPID ersetzt werden.
P09.10
Erste Erfahrungen mit dem radiochromen Film Gafchromic EPT2
1
2
1
S. Tsitsekidis , M. Bamberg , T. W. Kaulich ;
1
Medizinische Physik, Radioonkologische Universitätsklinik, Tübingen,
2
Germany, Radioonkologische Universitätsklinik, Tübingen, Germany.
Einleitung: Gafchromic EPT2 Filme sind sogenannte radiochrome
Filme, die allein durch Einwirkung ionisierender Strahlung geschwärzt
werden. Es wird also kein Entwicklungsprozess wie z.B. bei AgBr-Filmen
benötigt. Außerdem können die Filme unverpackt bei normaler
Beleuchtung sowohl in Luft als auch in Wasser verwendet werden.
In der Klinik für Radioonkologie des Universitätsklinikums Tübingen
werden
zurzeit
fünf
Elektronenlinearbeschleuniger,
ein
Brachytherapiegerät und zwei Bestrahlungsanlagen für extrakorporale
Bestrahlungen
betrieben.
Bisher
wurden
nur
an
den
Linearbeschleunigern
sowohl
im
Rahmen
von
Qualitätssicherungsmaßnahmen als auch bei speziellen Fragestellungen
bei
Patientenbestrahlungen
filmdosimetrische
Untersuchungen
durchgeführt. Dazu wurde der AgBr-Radiografiefilm ED2 (Fa. Kodak)
verwendet, für den ein chemischer Entwicklungsprozess erforderlich ist.
Die
dafür
benötigte
Entwicklungsmaschine
wurde
bei
Umbaumaßnahmen demontiert, weshalb dringend ein neues Verfahren
für filmdosimetrische Untersuchungen benötigt wurde.
Material und Methode: Da in der Universitätsklinik für Radioonkologie
in Tübingen keine Erfahrungen mit radiochromen Filmen vorlagen,
wurden zunächst die Filmeigenschaften untersucht, um das neue
Messmittel detailliert kennen zu lernen.
117
Im Einzelnen wurden folgende Eigenschaften untersucht: Absorption
und Transmission bei der Auswertung mit einem Durchlichtscanner,
Homogenität unterschiedlicher Filmpackungen und Chargennummern,
Einfluss der Filmorientierung und der Dosis bei der Auswertung, Einfluss
des Auswertezeitpunkts nach Bestrahlung, Einfluss von Raumlicht und
Tageslicht über einen längeren Zeitraum, Einfluss der Dosisleistung,
Dosis-Schwärzungs-Beziehung bei verschiedenen Strahlungsqualitäten
und Dosis-Kalibrierung bei unterschiedlichen Strahlungsqualitäten.
Bezüglich der Filmauswertung wurde der Einfluss der Scannerauflösung
untersucht und eine Scanner-Konstanzprüfung etabliert.
Für die Messungen an Elektronenlinearbeschleunigern (Fa. Elekta)
wurde ein Wasserphantom mit einer speziellen Filmhalterung verwendet.
Damit wurden Filme mit ultraharter Röntgenstrahlung und
hochenergetischer
Elektronenstrahlung
mit
unterschiedlichen
Bestrahlungstechniken
bestrahlt,
anschließend
gescannt
und
ausgewertet.
An einer Brachytherapieanlage (GammaMed plus, Fa. Varian) wurde die
Dosisverteilung einer 192-Ir-Quelle mit einem Film in einem speziellen
Festkörperphantom gemessen.
Für die Messungen an einer Anlage für extrakorporale Bestrahlungen
(Fa. Gamma-Service Medical) wurden Filme mit speziellen Rahmen in
den wassergefüllten Bestrahlungsbehältern fixiert und bestrahlt. Die
Ergebnisse wurden mit Alaninmessungen des Herstellers verglichen.
Ergebnis: Die Messungen an Elektronenlinearbeschleunigern wurden
mit
Ionisationskammermessungen
sowie
teilweise
mit
Dosisberechnungen eines kommerziellen Bestrahlungsplanungssystems
verglichen und zeigten sowohl bei ultraharter Röntgenstrahlung als auch
bei hochenergetischer Elektronenstrahlung eine gute Übereinstimmung.
Die filmdosimetrischen Messungen an der Brachytherapieanlage wurden
mit
den
Dosisberechnungen
eines
kommerziellen
Bestrahlungsplanungssystems bestätigt.
Ein Vergleich der Messungen an einer Anlage für extrakorporale
Bestrahlungen ergab signifikante Abweichungen von Alaninmessungen
des Herstellers. Der Grund für diese Diskrepanz muss noch geklärt
werden.
Diskussion: Der untersuchte Gafchromic EPT2 Film überzeugte bei den
vorgestellten Untersuchungen durch seine einfache Handhabung und
die relativ geringe Messunsicherheit. Somit ist der Gafchromic EPT2
Film nach den bisherigen Erkenntnissen für unsere Klinik ein adäquater
Ersatz für den AgBr-Radiografiefilm ED2.
Abb. 1: Sternaufnahme nach DIN 6847-5
Außerdem ist es möglich, schnell und einfach klinische
Bestrahlungsfelder zu verifizieren. Es wird gezeigt, dass prinzipiell jede
Art von Entität bildgebend dargestellt werden kann, Isodosen-Linien und
Isodosen-Flächen ausgewertet (siehe Abb. 2) und mit dem
Bestrahlungsplan des Planungssystems verglichen werden können.
P09.11
Halbleiter-Speicherfolien für Dosimetrie und klinische
Anwendungen
B. Zeeb;
Universitätsklinik für Radioonkologie, Medizinische Physik, Tübingen,
Germany.
Einleitung: Röntgenfilme für dosimetrische und klinische Anwendungen
waren in den vergangenen 115 Jahren fester Bestandteil der
Röntgendiagnostik sowie der Strahlentherapie [1]. Erst der
flächendeckende Wegfall der Nassentwicklung zwang zu Alternativen.
Eine Alternative ist der selbstentwickelnde Radiochromfilm (z.B. ISP
GafChromic EBT2) [2], der allerdings für viele klinische Anwendungen
nicht einsetzbar ist. Eine weitere Alternative sind Halbleiter2+
Speicherfolien auf Basis von BaFX:Eu (X=Cl, Br, I) [3], die in speziellen
Therapiekassetten herkömmliche Röntgenfilme in weiten Bereichen
vollwertig ersetzen können. Nach der Belichtung mit geringer Dosis
werden die Speicherfolien in weniger als einer Minute mittels
Laserscanner und Photomultiplier digital ausgelesen.
Material und Methoden: In der vorliegenden Arbeit wird die
Speicherfolien-Technik vorgestellt. Insbesondere sollen dosimetrische
Messungen mit Hilfe von Halbleiter-Speicherfolien untersucht, mit
klassischen und radiochromen Filmen verglichen und Vor- und Nachteile
der
Speicherfolien
aufgezeigt
werden.
Dafür
wird
das
Speicherfoliensystem Fujifilm Capsula XL-II mit speziellen Kassetten für
die Strahlentherapie verwendet.
Ergebnisse und Diskussion: Betrachtet werden die intrinsischen
Eigenschaften der Halbleiterspeicherfolien, wie Schwärzungskurve,
Abhängigkeit von Strahlungsart und Strahlungsqualität, Dosisleistung,
usw. Es zeigt sich z.B., dass auch Zehntel Monitoreinheiten ohne
weiteres dosimetrisch aufgelöst werden können. Außerdem ist es
möglich, schnell und einfach geometrische Untersuchungen in
verschiedenen Bereichen der Konstanzprüfungen durchzuführen.
Betrachtet wird unter anderem die Sternaufnahme zur Lokalisation des
Strahlenisozentrums
(siehe
Abb.
1),
MLC-Prüfung
und
Quadrantenkontrolle. Für verschiedene Photonen-Energien werden
Tiefendosiskurven und Querprofile gemessen, sowie zweidimensionale
Dosisverteilungen ausgewertet. Es zeigt sich, dass für diese Aufgaben
die Halbleiter-Speicherfolien sehr gut geeignet sind, und dies bei
gleichzeitig geringem zeitlichem Aufwand.
118
Abb. 2: Verifikation einer Brust-Bestrahlung. Links: GraustufenDarstellung, Mitte: Isodosen-Linien, Rechts: Isodosen-Flächen
Zusammenfassung: Zusammenfassend kommt man zu dem Ergebnis,
dass
Halbleiter-Speicherfolien
für
Dosimetrie
und
klinische
Anwendungen im Vergleich zu klassischen Filmen einige Vorteile bieten
und in vielen Fällen diese ersetzen bzw. in anderen Bereichen ergänzen
können.
Literatur:
[1] A. G. Haus and J. E. Cullinan, RadioGraphics 9, 1203 (1989)
[2] C. Fiandra et al., Med. Phys. 33, 4314 (2006)
[3] K. Takahashi, Journal of Luminescence 100, 307 (2002)
[4] DIN 6847-5: Medizinische Elektronenbeschleuniger-Anlagen. Teil 5:
Konstanzprüfungen von Kennmerkmalen. Januar 1998
P09.12
Vergleichsmessungen des Mini-Wasserphantom „AquaphanTOM“
mit dem „MP3“ Wasserphantom
S. Glessmer, T. Maaß, C. Müller, S. Söger, F. Fehlauer;
Strahlenzentrum Hamburg, Hamburg, Germany.
Fragestellung:
Die
regelmäßige
Absolutdosimetrie
unter
Referenzbedingungen stellt einen wesentlichen Bestandteil der Arbeit
eines Medizinphysikexperten dar. Da der Aufbau und die Ausrichtung
großer Wasserphantome meist sehr zeitaufwändig sind, wird häufig auf
Plattenphantome aus RW3 zurückgegriffen. Dieses Material hat jedoch
den Nachteil, dass es nicht exakt wasseräquivalent ist (Nisbet et al.,
Radiother. Oncol. 73:79-88, 2004). Mini-Wasserphantome hingegen
bieten die Vorteile eines schnellen Aufbaus sowie des Referenzmaterials
Wasser. Allerdings tritt bei einigen Modellen die Strahlung nicht vertikal,
sondern horizontal durch eine PMMA-Scheibe in das Phantom ein. Ziel
dieser Studie ist es, die Eignung eines Prototypen des neuen MiniWasserphantom „AquaphanTOM 1.1 ho“ mit horizontalem Strahleintritt
für dosimetrische Messungen nach DIN 6800-2 zu untersuchen.
Methodik: In dem Wasserphantom „MP3 Therapy Beam Analyzer“
(PTW) wurden mit einer Roos-Kammer Tiefendosiskurven für 6MV und
10MV Photonen sowie für Elektronenenergien zwischen 4 MeV und 15
MeV aufgenommen. Diese wurden mit Tiefendosiskurven verglichen, die
in einem Prototypen des Mini-Wasserphantom „AquaphanTOM 1.1 ho“
(positronic beamservice) unter horizontalem Strahleneintritt gemessen
wurden.
Zusätzlich wurden im AquaphanTOM absolutdosimetrische Messungen
durchgeführt, um einen Korrekturfaktor zur Berücksichtigung der PMMAEintrittsscheibe zu ermitteln. Für Photonen erfolgten die Messungen mit
einer Farmer-, für Elektronen mit einer Roos-Kammer.
Ergebnisse: Ein Vergleich von mit der Roos-Kammer gemessenen
Tiefendosiskurven in den beiden Phantomen zeigte für die gemessenen
Photonen-Energien jeweils einen Versatz von ca. 2,5 mm. D.h.auf die
Positionsanzeige des AquaphanTOM waren 2,5 mm zu addieren, um
einen deckungsgleichen Verlauf der beiden Kurven zu erreichen. Bei
den absolutdosimetrischen Messungen mit der Farmer-Kammer gab es
keinen Offset. Der hiermit ermittelte Korrekturfaktor für die PMMAScheibe lag in der Größenordnung von 0,8 %.
Bei der Auswertung der Elektronen-Tiefendosiskurven hingegen ergab
sich kein klares Bild. Für die verschiedenen Energien konnte kein
einheitlicher Versatz festgestellt werden, die Werte schwanken ohne
erkennbare Systematik jedoch reproduzierbar zwischen 0,7 mm und 2,3
mm. Die resultierenden Kurven waren erneut deckungsgleich.
Absolutdosimetrisch lagen die Abweichungen unter 1,5 %.
Es bleibt zu klären, inwieweit sich die Inkonsistenzen zwischen den
Versätzen der Messungen mit unterschiedlichen Kammern aber auch
die bei unterschiedlichen Energien aus der Konstruktion der
verschiedenen Kammerhalterungen ableiten lassen.
Schlussfolgerung:
Der
Aufbau
des
Mini-Wasserphantoms
AquaphanTOM ist schnell und akkurat möglich, auch die Positionierung
der Kammern ist mittels Spindeltrieb genau durchführbar. Für
Photonendosimetrie ist der Einsatz des AquaphanTOM problemlos
möglich. Allerdings sind sowohl für Photonen als auch für Elektronen
weitere Vergleichsmessungen mit verschiedenen Wasserphantomen
anzustreben, um die Thematik der Kammerhalterungen und der
uneinheitlichen Versätze zu klären.
P09.13
Linac QS mit ImageMagick
G. Kohler;
Radio-Onkologie, Universitätsspital Basel, CH-4031 Basel, Switzerland.
Einleitung:
Bei
der
Qualitätssicherung
von
Elektronenlinearbeschleunigern werden unter anderen radiografische Filme und
Bilder von electronic portal image devices verwendet. Für die
Auswertung dieser Filme und Bilder existieren verschiedenste SoftwareLösungen. Die open source Software ImageMagick (IM) ist wenig
bekannt, weist jedoch Eigenschaften auf, die für den Einsatz in der
Qualitätssicherung sehr interessant sind.
In der Grundform wird IM von der Kommandozeile bedient. Dadurch
lässt sich stets verfolgen welche Operationen durchgeführt wurden.
Exakt dieselben Operationen lassen sich so wiederholt auf weitere Bilder
anwenden. Auch eine große Anzahl von Bildern lässt sich schnell und in
derselben Weise bearbeiten. Mit Skripten lassen sich Prozesse
automatisieren und es existieren verschiedene APIs (Application
Programming Interfaces) mit denen sich IM über C++, PHP, Perl oder
andere Programmiersprachen anwenden lässt.
Durch den freien Quellcode ist IM annähernd für jedes Betriebssystem
verfügbar. Kompilierte Versionen finden sich für die meisten
Betriebssysteme im Internet zum freien Download. Weiterhin ist IM
Bestandteil der meisten großen Linux-Distributionen, und ist auch auf
vielen Live-Distributionen enthalten, so lässt sich IM verwenden ohne
dass Software installiert werden muss. Durch die breite Verfügbarkeit
lassen sich die skript-basierten Lösungen leicht und systemübergreifend
mit Kollegen via Text-Dateien austauschen. Folgende Beispiele sollen
den Gebrauch von IM in unserer Abteilung zeigen.
Beispiele: Beim garden fence Test werden die Anschlüsse von fünf
nebeneinander liegenden 4x24cm2 Feldern analysiert. Natürlich lassen
sich alle Felder in einem Bild aufnehmen. Es bietet sich jedoch an, die
Felder einzeln aufzunehmen, so lassen sich die Bilder in verschiedenen
Tests verwenden. Das IM-Kommando zur Addition zweier Bilder lautet:
> convert img1.tif img2.tif -compose add -composite summe.tif
Bei fünf Bildern wird der Befehl nicht wesentlich komplexer. Mit einer in
IM erzeugten Look up Table (LUT) wird das garden fence Bild farblich
codiert um die normierten Graustufenwerte deutlicher darzustellen,
dieser Schritt wird in IM erneut über ein Einzeilen-Skript realisiert:
> convert gardenfence.tif LUT.tif -clut result.tif
Die gesamte Prozedur inklusive Beschriftung ist bei uns automatisiert
über ein interaktives Skript realisiert. In Figure 1 ist die Prozedur grafisch
dargestellt.
Die im vorherigen Beispiel verwendeten Bilder werden weiter verwendet,
um die Stellung der MLC-Lamellen zu den Backupblenden zu ermitteln.
Entsprechende Felder, bei denen die Lamellen zurückgezogen sind
werden mit den Standardfeldern verglichen. Der Abstand zwischen
Lamellen und Blende wird mittels Linien einer definierten Breite direkt
optisch dargestellt (Grafik 2).
Zusammenfassung: ImageMagick ist eine vielseitige BildverarbeitungsSoftware-Suite.
Die
kommandoszeilenbasierte
Befehlssteuerung
ermöglicht einen genauen Überblick über die durchgeführten
Operationen. Die breite Verfügbarkeit ermöglicht es mit einem
entsprechenden Satz von Skripten annähernd überall wo irgendein
Computer verfügbar ist die gleichen Auswertungen durchzuführen.
P09.14
"Beam Matching" Kontrolle im Rahmen der maschinenorientierten
QA mit involvierter patientenorientierter IMRT-Planverifikation
1
1
2
1
C. Willomitzer , E. Blank , S. Stapf , M. Krüger ;
1
2
OGD Brandenburg, Brandenburg, Germany, TU Ilmenau, Ilmenau,
Germany.
Einleitung: Für das innerklinische Patientenmanagement mit mehreren
klinischen Linearbeschleunigern (Clinac) ist es wichtig, dass die
Maschinen untereinander in ihren dosimetrischen Eigenschaften
näherungsweise gleich sind. Dies gewährleistet einerseits einen
unterbrechungsfreien Bestrahlungsbetrieb und sorgt für eine
Flexibilitätserhöhung
der
Behandlungslogistik,
da
auch
bei
Maschinenausfall
oder
Wartungsarbeiten,
eine
physikalisch
gleichwertige Weiterbehandlung des Patienten an einer anderen
Maschine durchgeführt werden kann. Zur Qualitätssicherung des
Gleichlaufs werden die bei der IMRT-Planverifikation berechneten
Fluenzbilder (predicted image) mit den gemessenen (portal image)
verglichen und somit der Bestrahlungsplan überprüft. Der Gleichlauf der
Clinacs wird durch Vergleich mit der am jeweiligen Clinac gemessenen
Fluenz eines jeweiligen Planfeldes gegeneinander überprüft.
Material und Methode: Ausgehend von einem vollkommissionierten
Clinac werden die anderen Maschinen, welche werkseitig schon
dosimetrisch angeglichen wurden, durch Feinabstimmung auf die
Referenzparameter Dosisprofil, Tiefendosis, Outputfaktoren und
Transmissionsfaktoren angepasst und verifiziert. Die PDIP-Software
(portal dose image prediction) errechnet aus diesen Beam Daten und
den EPID-Eigenschaften das zu erwartende Fluenzbild. Das Programm
ist Teil des ECLIPSE-Planungssystems. Es gilt: PDIP1 = Beam data
1,2,3 + EPID1, PDIP2 = Beam Data 1,2,3 + EPID2 (u.s.w.). Im Idealfall
von 100% gleichen „Dosisoutputs“ und EPID Konfigurationen der
Clinacs sind alle Portalbilder identisch. Das vorgeschlagene Messregime
setzt sich wie folgt zusammen: pro Arbeitswoche wird ein zu messender
IMRT-Plan in einen Verifikationsplan umgewandelt, berechnet und mit
EPID gemessen. (Es ist darauf zu achten, öfter die Planvariante zu
wechseln um auch andere Feldkonfigurationen zu prüfen). Patient X wird
mit PDIP1 vorhergesagt und an allen 3 Maschinen mittels EPID 1-3
gemessen und verglichen. Eine Woche später dann Patient Y mit PDIP2
an allen EPID 1-3, wieder eine Woche später dann Patient Z mit PDIP3
an allen EPID1-3 usw.. Somit ist eine Verifikation der IMRT-Pläne
gewährleistet, bei gleichzeitiger Kontrolle der Maschinen- und EPIDEigenschaften. Zusätzlich werden mit dem unabhängigen DELTA 4 Dosimetriesystem
Kontrollmessungen
der
gleichen
Planfelder
durchgeführt.
Bei der Auswertung erzeugt die Portal Dosimetrie-Software ein DosisDifferenz-Histogramm (DDH, Abb.2). Beide Fluenzen (predicted und
portal) werden hier geometrisch exakt übereinander gelegt und für jedes
119
Pixelpaar gleicher Koordinaten im Rahmen der Gamma-Analyse die
Abweichung ΔCU bestimmt.
Beim Vergleich der Dosis-Differenz-Histogramme der Strahlenfelder
untereinander genügt die Angabe von Gamma-Index und Dosisstatistik
nicht. Deshalb wurden die Histogramme in die Software ORIGIN
importiert, um dort Analysen und Tests durchzuführen. Der Vergleich der
Fitkurven wird im ORIGIN „Fit-comparsion-tool“ durchgeführt. Mit dem FTest wird auf Signifikanz (α = 0,05) getestet. Der F-Wert entschiedet, ob
die Dosis-Differenz-Histogramme in ihren Varianzen aus einer
Grundgesamtheit entstammen, was durch das Match-Procedere
angenommen wird. Vergleich: FeldNC1 vs. FeldNC2, FeldNC1 vs.
FeldNC3 und FeldNC2 vs. FeldNC3 (N= Feldnummer im Plan, C1,2,3 =
Clinac).
Ergebnisse und Diskussion: Die Anpassung der Clinacs untereinander
wurde mit 0,2% absolutdosimetrischer Unsicherheit und einer Symmetrie
unter 2% erfolgreich in reduzierter Einmesszeit von ca. 4 Wochen
durchgeführt. Der Umstand von nur einem Beam-Datensatz pro Energie
im Planungssystem, welcher als „single standard beam data set“
definiert ist, hat erhebliche administrative Vorteile. Der Vergleich der
Dosis-Differenz-Histogramme in ORIGIN kann mittels fester
Import/Expot Routine alltagstauglich gestaltet werden, eine wöchentliche
Messung mit EPID und Delta 4 ist je nach Erfahrung ausreichend.
P09.15
Dosimetrie in starken Magnetfeldern - Vergleich zweier
Messsysteme für eine MR-Linac-Kombination
1
1
2
1,3
H. Latzel , S. Greilich , C. E. Andersen , O. Jäkel ;
1
Deutsche Krebsforschungszentrum (DKFZ), Abteilung Medizinische
2
Physik in der Strahlentherapie, Heidelberg, Germany, Radiation
Research Department, Risoe National Laboratory, Roskilde, Denmark,
3
Klinik für Radioonkologie und Strahlentherapie, Universitätsklinikum
Heidelberg, Heidelberg, Germany.
Die Kombination von MR-Bildgebung mit klinischen Linearbeschleunigern verspricht einen großen Fortschritt der intrafraktionellbildgeführten Strahlentherapie (image guided radiotherapy, IGRT) - trotz
erheblicher noch zu lösender technischer Fragen.
So beeinflusst das starke Magnetfeld eines hybriden MR-Linac-Systems
die Dosisverteilung im Körper des Patienten signifikant und muss daher
in der Therapieplanung sowie in der Dosimetrie in der
Qualitätssicherung und der Therapieplanverifikation berücksichtigt
werden.
Konventionelle Ionisationskammern, welche den Standard in der
Dosimetrie darstellen, können in den starken Magnetfeldern jedoch nicht
ohne Weiteres eingesetzt werden. Stattdessen kommen derzeit vor
allem
Filmdosimeter
und
TLD
mit
vergleichsweise
hoher
Messunsicherheit zum Einsatz.
In der vorliegenden Studie wurden die Auswirkungen hoher
magnetischer Felder (> 1T) auf dosimetrische Messsysteme untersucht
und quantifiziert. Hierzu wurde ein speziell entwickelter Elektromagnet
verwendet, mit dem magnetische Flussdichten bis zu 1.5 T für
Untersuchungen unabhängig von klinischen MR-Geräten erreicht
werden können. Der Magnet ist außerdem noch transportabel, so dass
der Einsatz an unterschiedlichen Strahlenquellen wie etwa einem
Gammatron, einem Elektronenlinearbeschleuniger oder auch an der
Ionentherapieanlage (HIT) der Universitätsklinik möglich ist. Gleichzeitig
bietet das System genügend Platz im Magnetfeld, um verschiedene
Detektoren systematisch zu vergleichen.
Bisher wurden zwei dosimetrische Systeme auf ihr Verhalten in starken
Magnetfeldern untersucht:
i. eine luftgefüllte Ionisationskammer der Fa. Wellhöfer (Typ IC03),
welche zudem bei Messungen ohne Magnetfeld als Referenz für weitere
Detektoren dient;
ii. ein vollständig optisch-basiertes fasergekoppeltes LumineszenzDosimeter ohne metallische Komponenten.
Die folgenden Punkte sollen in der Untersuchung geklärt werden:
Eignung und Genauigkeit des Lumineszenzsystems im Vergleich mit der
Ionisationskammer,
die
Möglichkeit
der
Bestimmung
von
Korrektionsfaktoren für das jeweilige Messsystem in Abhängigkeit von
der magnetischen Flussdichte; spezielle Fragestellungen, die bei der
Qualitätssicherung und Planverifikation unter starken Magnetfeldern
auftreten können.
120
P09.16
Untersuchungen zur optimalen Feldgrößenanpassung bei doppelt
kollimierenden Blendensystemen
1
2
2
2
M. Schaks , M. Janich , R. Gerlach , D. Vordermark ;
1
2
Universität Halle, Halle, Germany, Universitätsklinikum Halle, Halle,
Germany.
Einleitung: Bei stereotaktischen Bestrahlungstechniken werden häufig
sogenannte
Mikro-Multileaf-Kollimatoren
(μMLC)
unter
das
beschleunigereigene Blendensystem montiert. Diese gestatten bis zu
2
einer nach oben hin begrenzten Feldgröße von etwa 10x10 cm den
Einsatz von wesentlich schmaleren Lamellen, üblicherweise 2-3mm
Breite im Isozentrum. Mit diesen Kollimatoren ist es möglich, eine
deutlich bessere Feldformanpassung an das zu bestrahlende Zielgebiet
zu erreichen, als dies mit den breiteren Lamellen des
Hauptblendensystems möglich ist. Gleichzeitig befindet sich der
angeflanschte Zusatzkollimator näher am Patienten, was zu einer
verminderten Penumbra der Dosisquerprofile der Bestrahlungsfelder
führt. Derartige μMLC haben im Allgemeinen jedoch eine größere
Durchlassstrahlung, was durch ihre konstruktiv geringere LammellenVerzahnungstiefe und Blendendicke begründet ist. Deshalb wird bei der
Bestrahlungsplanung
die
Strahlausblendung
nicht
nur
vom
Zusatzkollimator erreicht, sondern entsprechend der projizierten
Feldgröße
ein
„vorgeschaltetes“,
nominell
etwas
größeres
Hauptkollimatorfeld errechnet. Da beide Kollimatoren Feldgröße und profil beeinflussen, stellt sich die Frage nach der optimalen Anpassung
der Hauptblenden an die Feldform des μMLC. In Abb. 1 sind zwei
Feldprofile dargestellt, bei denen der μMLC jeweils eine Feldbreite von
12mm realisiert aber die Hauptblenden entweder weit geöffnet
(schwarze Kreuze) oder aber ebenfalls auf 12mm Breite zugefahren sind
(rote Punkte).
Material/Methoden: Zur Untersuchung der gegenseitigen Beeinflussung
der Kollimatoren, wurden Querprofile bei unterschiedlichen, aber festen
®
Feldgrößen des angebauten m3-Kollimators der Firma Brainlab
gemessen und sukzessive die Blendenstellung des Hauptkollimators
ausgehend von 10cm Feldbreite verkleinert. Für diese Messungen kam
die Halbleiterkammer 60012 und das Wasserphantom MP3 der Firma
®
PTW zum Einsatz. Außerdem wurden die Feldprofile ohne angebauten
m3-Kollimator für dieselben Blendenstellungen des Hauptkollimators
vermessen. Alle Profilverläufe Φ(x) wurden über Faltungsmethoden
numerisch angepasst. Dabei wurde sowohl das einfache als auch das
doppeltkollimierende Blendensystem als „black box“ angesehen und mit
einem einfachen Gaußschen Faltungskern modelliert (Abb. 2). Der
Variationsparameter a zeigt die Feldgröße an und der Parameter σ
beeinflusst die Flankensteilheit.
Ergebnisse: Um zu bewerten, ab welcher minimalen Feldgröße des
Hauptkollimators keine Beeinflussung der Feldform des μMLC’s mehr zu
erkennen ist, genügt es nicht, nur die Feldbreiten zu analysieren. Man
muss vielmehr darauf achten, ab wann der für das doppeltkollimierende
Blendensystem
berechnete
Parameter
σ
einen
vom
Hauptblendensystem unabhängigen Werteverlauf zeigt. Erst dann
bestimmt der μMLC allein das Feldprofil. In Abb. 3 sind die Werte für σ
des einfachkollimierenden Systems (schwarze Kreuze) zusammen mit
den bestimmten σ der doppeltkollimierenden Systeme (farbig) in
Anhängigkeit des Feldgröße des Hauptblendensystems aufgetragen.
Solange das Hauptblendenfeld beim doppeltkollimierenden System
deutlich kleiner als das m3-Feld ist, bestimmt es allein Feldgröße und form. Sind die Feldgrößen beider Kollimatoren ähnlich groß, zeigt sich
ein für jede der dargestellten Feldgrößen des μMLC’s nahezu
gleichbreiter Übergangsbereich zwischen den σ-Werten des einfachund doppeltkollimierenden Systems. Hinter diesem Übergangsbereich
werden die σ-Werte vom μMLC dominiert. Der Minimalwert von σ
markiert die optimale Feldgröße des Hauptblendensystems. Bei dieser
Konfiguration bestimmt der μMLC allein das Feldprofil und seine
Durchlassstrahlung wird bestmöglich abgeschirmt. Eine genaue Analyse
zeigt, dass das Hauptblendenpaar an jeder Seite 4mm größer sein
muss, um dieses Optimum zu erreichen.
Abb. 1
(a)
Abb. 2
(b)
Abb. 3
Abb. 1: (a) Intraoperative Bestrahlung eines Mammakarzinoms. (b) Der
Elektronentubus wird an den Situs angedockt. Dabei wird die Haut um
den Tubus gelegt.
P09.17
Messung der Streustrahlung am Tubus eines mobilen
Elektronenlinearbeschleunigers für die IORT mit radiochromen
Filmen
C. Sanne, D. Schölzel, P. Pereira do Vale, I. Simiantonakis;
Heinrich-Heine-Universität Düsseldorf, Universitätsklinikum, Klinik für
Strahlentherapie, Düsseldorf, Germany.
Einleitung:
Am
Universitätsklinikum
Düsseldorf
erhalten
Mammakarzinom-Patientinnen im Rahmen einer Studie anstelle der
konventionellen Boostbestrahlung eine intraoperative Radiotherapie
(IORT) als vorgezogenen Boost. Die Bestrahlung erfolgt im
direktenAnschluss an die chirurgische Entfernung des Tumors. Hierfür
wird ein dedizierter Elektronenlinearbeschleuniger eingesetzt, der mit
verschiedenen Elektronenenergien und geraden bzw. gewinkelten
Elektronentuben für verschiedene Feldgrößen ausgestattet ist. Die
Kenntnis der Streustrahlung entlang dieser Tuben ist von zentraler
Bedeutung, insbesondere die Kontaktdosis am unteren äußeren Rand
der Tuben, da dieser von Haut umschlossen ist (siehe Abb. 1). Ziel der
vorliegenden Arbeit ist die Bestimmung der relativen Dosis der
Streustrahlung entlang der Tuben.
Material und Methoden: Das Streuverhalten wurde exemplarisch für
die
klinisch
am
häufigsten
verwendeten
Tuben
(aus
Polymethylmethacrylat PMMA (Perspex®), Durchmesser 4 und 6 cm)
untersucht. Die Streustrahlung entlang der Tuben des mobilen
Elektronenlinearbeschleunigers für die IORT (Novac7, New Radiant
Technology, Aprilia/Italien) wurde mit Hilfe von radiochromen Filmen
vom Typ Gafchromic EBT2 (ISP, Wayne, New Jersey/USA), über die
Länge der Tuben (Neigungswinkel 0°, 22,5° und 45°, FOA = 80 cm) und
speziell am unteren Rand, ermittelt. Die zuvor an einem konventionellen
Linearbeschleuniger kalibrierten radiochromen Filme wurden außen,
längs der Tubusoberfläche bzw. um den unteren Rand herum
angebracht. Als Rückstreumaterial wurde ein 1 cm dicker Bolus, welcher
die Haut simulieren sollte, verwendet (siehe Abb. 2).
121
(a)
(b)
Abb. 2: Versuchsaufbau der Streumessungen: (a) Radiochrome
Filmstreifen und Boli entlang eines geraden Tubus (Durchmesser 6 cm).
(b) Vier radiochrome Filmstreifen (in inplane bzw. crossplane Richtung)
und Bolus am Tubusende für einen gewinkelten Tubus (Durchmesser 6
cm, 22,5°-Neigung).
Zur Bestimmung der Referenzdosis wurde ein weiterer radiochromer
Film in einem RW3-Plattenphantom im Dosismaximum des
Strahlenfeldes platziert und mit einer Dosis von 5 Gy bei
Elektronenenergien von 3 und 9 MeV bestrahlt. Die Filmauswertung
erfolgte mit Hilfe eines kommerziellen Flachbettscanners (V750 Pro,
122
Epson, Nagano/Japan) und der Dosimetriesoftware OmniPro-I’mRT
(IBA-Dosimetry, Schwarzenbruck/Deutschland).
Ergebnisse: Ausgehend von der Strahlungsquelle steigt die
Streustrahlung zunächst an und fällt im weiteren Verlauf entlang der
Tuben annähernd exponentiell ab (siehe Abb. 3). Am unteren Ende der
Tuben beträgt die Dosis der Streustrahlung höchstens 5% der
Maximaldosis bei der niedrigsten Energie (3 MeV). Für die höchste
verfügbare Energie von 9 MeV beträgt die Streustrahlung 7% der
Maximaldosis („worst case“). Die Messungen am unteren Tubusrand
zeigen für die geraden Tuben eine homogene Streustrahlung entlang
des Tubusrandes. Bei den schrägen Tuben (22,5°- und 45°-Neigung)
zeigt sich, dass die Streustrahlung trotz des Winkels ebenfalls homogen
über den Rand verteilt ist.
Abb. 3: Dosisverlauf für den geraden Tubus (Durchmesser 6 cm) bei
einer Energie von 3 MeV. Die Lücke im Graphen zwischen 25 und 32 cm
wird durch den 5 cm langen Verbindungsflansch verursacht, da in
diesem Bereich die Streuung nicht gemessen werden konnte (siehe
auch Abb. 2a).
P09.18
Präzisionsmessungen durch Sternschüsse
1
1
1
1
2
M. Hoevels , H. Treuer , S. Hunsche , K. Luyken , W. Baus ;
1
Universität zu Köln, Klinik für Stereotaxie und Funktionelle
2
Neurochirurgie, Köln, Germany, Universität zu Köln, Klinik für
Strahlentherapie, Köln, Germany.
Die Linac-basierte Radiochirurgie stellt höchste Anforderungen an die
Genauigkeit der Applikation der Strahlung, die es bei der sowohl bei der
Justierung des Systems wie auch bei der regelmäßigen
Konstanzprüfung zu erfüllen gilt.
Die hier demonstrierten Auswertungen durch Sternschüsse stellen eine
Methode mit hoher Präzision dar, die zudem einfach durchzuführen ist
und quantitative Aussagen liefert. Zur Auswertung dienen eingescannte
Filme, die über die Lasermarkierungen einem raumfesten
Koordinatensystem zugeordnet werden können. Auf diese Weise
können verschiedene Messungen in Beziehung gesetzt werden. Sie
liefern nicht nur eine Aussage über die Qualität des Isozentrums und der
Justierung des Gesamtsystems, sondern auch eine quantitative
Aussage über die notwendigen Korrekturen im Submillimeterbereich. Sie
sind daher sowohl für den Setup wie auch spätere Konstanzprüfungen
und Qualitätskontrolle geeignet. Für die Betrachtung kombinieren wir die
Auswertungen von Sternschüssen in verschiedenen Ebenen,
insbesondere denen der Gantryrotation, der Tischrotation sowie der des
Strahler-kopfes, als auch Sternschüsse in verschiedenen Stellungen der
Gantry. Die so gewonnenen Resultate erlauben Aussagen zu
O - Güte des Isozentrums in drei Raumrichtungen
O - Justage des stereotaktischen Kollimatorhalters
O - Lage der Tisch-, Kopf- und Gantry-Drehachse, relativ zum Laser
O - Quantitative Hinweise zur Laserjustage
O - Vermessung des Gantry Sag
Wir demonstrieren sowohl die technischen Hintergründe als auch
Langzeitergebnisse.
123
P09.19
QA Maßnahmen zur Implementierung stereotaktischer
Einzeitbestrahlungen in Graz
Abbildung 2: Darstellung der Einstrahlrichtungen der sieben
dynamischen Bögen
T. Hüpf, P. Winkler, R. Flitsch, A. Oechs, K. Kapp;
LKH Universitätsklinikum Graz, Universitätsklinik für Strahlentherapie
Radioonkologie, Graz, Austria.
1. Einleitung: Wir standen vor der Herausforderung, in kurzer Zeit den
Varian Linearbeschleuniger NovalisTx in den klinischen Betrieb zu
implementieren, um die komplexen Behandlungen durchführen zu
können, für die lange Zeit das Grazer Gamma-Knife Methode der Wahl
war. Die Spezifika dieses Beschleunigers sind neben dem highdefinition-MLC und einer hohen mechanischen Genauigkeit der Gantry
insbesondere das unabhängige Positionierungssystem ExacTrac (ET)
der Firma Brainlab und die speziell für stereotaktische Radiochirurgie
vorgesehene 6 MV Photonenenergie mit 1000 MU/min.
2. QA Konzept:
a) Geometrisch:
Durch das Zusammentreffen von kleinen Zielvolumina im craniellen
3
Bereich (< 1 cm ) einerseits und VMAT Techniken mit viel mechanischer
Bewegung (dynamische Bögen bei verschiedenen Tischwinkeln)
andererseits erreichen die Anforderungen an die Genauigkeit bereits das
Limit des technisch Möglichen. So beträgt beispielsweise der von
Anwendern nicht beeinflussbare Gantrysag zwischen 0° und 180° etwa
0,7 mm. Wir prüfen vor jeder Einzeitbestrahlung diese mechanische
Isozentrumsgenauigkeit sowie die Übereinstimmung zwischen
Strahlisozentrum und ET-Isozentrum mittels eines selbst entwickelten
Verfahrens, das aus MV-Portfilmaufnahmen automatisch translatorische
Verschiebewerte ausgibt. Die Isozentrumsübereinstimmung wird auch
täglich anhand eines eigens dafür adaptierten ET-Isozentrumsphantoms
erfasst (siehe Abbildung 1).
Abbildung 1: ET Isozentrumsphantom mit Bohrungen für MV
Positionskontrolle
Verschreibung: 24 Gy auf die Randisodose in sechs Fraktionen
Maximum: 32 Gy). Durch die Dosierung auf eine niedrige Isodose (bei
Linearbeschleunigern 70 - 80% des Maximums) ist ein starker
Dosisabfall hin zum gesunden Gewebe möglich (siehe Abbildung 3).
Abbildung 3: Isodosendarstellung
b) Dosimetrisch
Zur patientenbezogenen dosimetrischen Kontrolle dient ein 20 x 20 cm
Würfelphantom aus horizontalen Plexiglasplatten. Damit wird die
geplante Dosisverteilung in mehreren Ebenen mit einer Messung mit
absolutdosimetrisch kalibrierten Filmen verifiziert.
3. Ergebnisse: Eine Untersuchung an einem Schädelskelett zeigt, dass
unter Zuhilfenahme der ET-Positionierung eine Markerkugel mit hoher
Präzision (< 1,0 mm) getroffen werden kann. Die statistische
Standardabweichung der täglichen Schwankung zwischen ETIsozentrum und Strahlisozentrum ist kleiner als 0,3 mm. Bis April 2011
wurde von ca. 30 Bestrahlungsplänen der Vergleich zwischen
Filmmessung und geplanter Dosisverteilung ausgewertet. Das 3 mm 3%
Gamma-Kriterium ergibt durchschnittlich 3,9% Abweichungen (die Hälfte
liegt unter 1,5%).
4. Fallbeispiel: Am Beispiel eines Patienten / einer Patientin lässt sich
der vollzogene Technologiesprung am leichtesten festmachen. Für eine
Gehirnmetastase nahe am Chiasma wurde ein Plan mit sieben
dynamischen Bögen erstellt (siehe Abbildung 2).
124
Die Filmauswertung dieser Verifikation am Phantom ergab im GammaKriterium 2,8%. Fixierung im stereotaktischen Maskensystem und
Positionierung mithilfe von ET unterstützen die reproduzierbare
Lagerung.
5. Zusammenfassung: Nur durch Flexibilität und Engagement aller
beteiligten Berufsgruppen war es möglich, dass derartige Fälle in kurzer
Zeit in die Routine integriert werden konnten. Die technischen QA
Anforderungen hinsichtlich besonderer Genauigkeit sind in diesem
Zusammenhang nur ein kleiner Teil des Gesamtprozesses.
Poster 10: IMRT Bestrahlungsplanung, Verifikation und
klinische Erfahrung
P10.01
Volumetric Modulated Arc Therapy (VMAT) im Vergleich mit Stepand-Shoot IMRT und 3D konformer Strahlentherapie (3D-CRT) zur
Behandlung von HNO-Tumoren
1,2
1,2
1
1
V. M. Barrois , L. Vogelgesang , D. Wolff , S. Bosold , L.
1
1
1
1,2
Tsogtbaatar , J. Sparenberg , R. Engenhart-Cabillic , K. Zink ;
1
Universitätsklinikum Gießen und Marburg, Gießen, Germany,
2
Technische Hochschule Mittelhessen, Gießen, Germany.
Einleitung: Die Volumetric Modulated Arc Therapy (VMAT) ist eine
neue Form der intensitätsmodulierten Strahlentherapie, und eröffnet das
Potential, diese mit hoher Effizienz durchzuführen. Diese Arbeit
vergleicht VMAT mit etablierten Verfahren wie MLC basierte IMRT und
der klassischen 3D-CRT-Bestrahlungstechnik.
Material und Methoden: Basierend auf CT-Datensätzen von neun
Patienten mit Kopf-Hals-Tumoren wurden jeweils zwei VMATBestrahlungspläne mit einer (VMAT1x) und zwei Rotationen (VMAT2x),
zwei IMRT-Bestrahlungspläne mit sieben (IMRT-7F) und neun (IMRT9F) Einstrahlrichtungen sowie ein 3D-CRT-Bestrahlungsplan (12 Felder)
berechnet und hinsichtlich Planqualität und Behandlungseffizienz
untersucht. Maßgabe für die modulierten Verfahren war bei einer
Verschreibungsdosis von 50,4Gy eine mittlere Dosis von 22Gy für die
kontralaterale Parotis, sowie für alle Verfahren eine maximale
Rückenmarksdosis von 40Gy nicht zu überschreiten. Konformitätsindex
(CI) und Homogenitätsindex (HI) sowie mediane oder maximale Dosis
der Risikoorgane und die Dosis, die 95% des Zielvolumens umschließt
(D95) waren Grundlagen für den Planvergleich. Des Weiteren wurden
die Volumina des Normalgewebes für 70%, 50% und 30% bezogen auf
die Verschreibungsdosis zur weiteren Bewertung der Planqualität
hinzugezogen. Die Behandlungseffizienz wurde anhand der Anzahl der
Monitoreinheiten (MU) und der Bestrahlungszeit beurteilt.
Ergebnisse: Für VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT betrug
der gemittelte HI 0,08/0,10/0,08/0,08/0,12 und der gemittelte CI
1,19/1,21/1,16/1,17/1,39. Bei der verschriebenen Dosis von 50,4Gy für
alle Patienten erhielt das Myelon im Mittel eine Maximaldosis von
35,9/37,0/36,4/36,9/37,1Gy. Die mittlere Dosis für die kontralaterale
Parotis
betrug
20,8/21,9/20,7/20,8/43,4Gy.
Die
D95
für
VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT
betrug
48,1/47,6/48,3/48,2/46,9Gy. Die Volumina des Normalgewebes für mehr
als
70%
der
verschriebenen
Dosis
(35,3Gy)
umfassten
1175/1237/1398/1286/1371cm³,
für mehr
als 50% (25,2Gy)
2581/2546/2781/2697/2725cm³, für mehr als 30% (15,12Gy)
4178/4107/4075/4288/4032cm³. Die Monitoreinheiten betrugen im Mittel
550,4/403,3/437,4/438,5/533,2. Die Bestrahlungen dauerten im Mittel
2,9/1,4/9,4/6,9/7,5min.
Schlussfolgerung: Für die untersuchten Bestrahlungstechniken
VMAT2x/VMAT1x/IMRT-9F/IMRT-7F/3D-CRT war die Homogenität und
die Zielvolumenabdeckung hinsichtlich der verschriebenen Dosis nahezu
identisch. Die Grenzdosis für das Myelon konnte mit allen
Bestrahlungstechniken ähnlich gut eingehalten werden. Bezüglich der
Schonung der kontralateralen Parotis ergab sich erwartungsgemäß für
die modulierten Bestrahlungstechniken eine wesentlich bessere
Planqualität. Die D95 war für alle untersuchten Verfahren nahezu gleich.
Hinsichtlich der Bestrahlungszeiten T zeigt sich mit T<3min für 2
Rotationen und T<2min für 1 Rotation ein Vorteil für VMAT gegenüber 710min für Step-and-Shoot IMRT und etwa 7-8min für die 3D-CRT.
P10.02
Vergleich sequentielle versus integrierte Boostbestrahlung mit
VMAT bei HNO-Tumoren
H. Blank, H. Alheit, J. Distler;
Strahlentherapie Distler, Bautzen, Germany.
Zielstellung: Bei der kurativen Strahlentherapie von HNO-Tumoren wird
ein abgestuftes Zielvolumenkonzept verfolgt, welches zum Ziel hat,
verschiedene Subvolumina mit steigender Dosis in Abhängigkeit vom
angenommenen Rezidivrisiko zu bestrahlen. Bei konventioneller
Bestrahlungstechnik, wie auch bei sequentieller IMRT-Bestrahlung der
einzelnen Boost-Subvolumina kommt es infolge der Überlagerung der
Strahleintrittspfade mit denen der vorhergehenden Serie regelmäßig zu
ungewollten Dosisdepositionen in Subvolumina, die bereits die
verschriebene Dosis erhalten haben. Die integrierte Boostbestrahlung
hat zumindest potentiell die Möglichkeit, diese Überschneidungsareale
zu minimieren.
Methode: Mit einer Planungsstudie an 10 Patienten mit HNO-Tumoren
wird untersucht, inwieweit eine Dosisüberhöhung im adjuvanten
Zielvolumen (Pharynx und beide Halsseiten, 50.4 Gy in 28 Fraktionen)
durch die Boostbestrahlung der LK-Region mit erhöhtem Risiko (5,4 Gy
in 3 Fraktionen) bei sequentieller Bestrahlung durch einen integrierten
Boost (28 * 1,8 Gy adjuvant/ 28*2Gy LK mit erhöhten Rezidivrisiko)
vermindert werden kann. Als Bestrahlungsmethode wird für beide
Szenarien eine VMAT-Bestrahlung an einem ELEKTA-Beschleuniger
Synergy mit dem Planungssystem Monaco geplant. Ein weiterer Boost
auf die Primärtumorregion und befallene LK bis 66 Gy (operierte
Patienten oder 70 Gy primäre Bestrahlung) wird hierbei nicht
berücksichtigt. Die Planung erfolgt auf ein CT mit 3mm
Schichtseparation, in welchem das adjuvante PTV, das BoostPTV für
55,8 Gy und als Risikoorgan das Rückenmark eingezeichnet wurden.
Zusätzlich wurde ein ventrales (Mundhöhle) und ein dorsales Volumen
(Nacken), welches geschont werden soll definiert. Auf Dosiskonstraints
für die Parotiden wurde hier verzichtet, da die Parotisschonung nicht Ziel
der Untersuchung ist. Für alle PTV wird ein Oberflächenabstand von 5
mm eingehalten, um Aufbaueffekte auszuschließen. Die Auswertung
erfolgt an Hand von DVH-Kriterien für die einzelnen Subvolumina (Dmin;
Dmax; Dmean; Dmedian) sowie für das adjuvante Volumen ohne
Einschluss des Boostvolumens (dieses wird für diesen Zweck mit einem
5mm Margin umgeben).
Ergebnisse: Die Untersuchungen ergaben bei Anwendung eines
integrierten Boostes eine mittlere Einsparung beim adjuvanten
Bestrahlungsvolumen von 1-1,5Gy. Damit sind im Vergleich zum
sequentiell durchgeführten Boost und volumenbereinigt Einsparungen
bis 40% möglich. Darüber hinaus wurde eine Reduktion des
Dosismaximums um ca. 3,5Gy und damit eine zunehmende
Homogenisierung der Zielvolumenauslastung erreicht. Eine signifikante
Verbesserung durch Anwendung von Fraktionierungsschemata mit
größeren Differenzen zwischen den Einzeldosen konnte nicht
nachgewiesen werden. In diesem Zusammenhang muss natürlich auch
eine kritische Auseinandersetzung mit den damit einhergehenden
strahlenbiologischen Konsequenzen erfolgen, die aber nicht
Gegenstand dieser Arbeit sein kann.
Schlussfolgerung: Mit der Planung eines integrierten Boostes gelingt
es besser, Hot-Spots im adjuvanten Zielvolumen zu vermeiden. Darüber
hinaus eröffnet die Planung mit integriertem Boost für die ersten beiden
Teilserien, die Möglichkeit, für den anschließend noch zu planenden
Boost auf die Tumorregion/befallene Lymphknoten die Pläne in Monaco
125
zu addieren und somit eine Gesamtdosiverteilung zu dokumentieren. Die
wäre bei 3 Einzelplänen in der gegenwärtigen Version nicht möglich.
P10.03
VMAT-Techniken zur Schonung der Submandibulardrüsen bei
Patienten mit Kopf-Hals Tumoren
V. Prokic, P. Stegmaier, M. Henke;
Klinik für Strahlenheilkunde, Universitätsklinikum Freiburg, Freiburg,
Germany.
Hintergrund: Die Strahlentherapie ist eine der wichtigsten Optionen zur
Behandlung von Kopf-Hals-Tumoren. Eine häufige und langfristige
Nebenwirkung ist die Xerostomie. Sie beeinflusst die Lebensqualität und
kann zu erheblichen Folgekomplikationen führen. Eine Reduktion der
Dosisbelastung der Speicheldrüsen (Glandula parotidea) kann die
Xerostomie vermindern. Die Schonung der Parotiden mit der
gleichzeitigen Dosiskonformität im Tumor, wird durch den Einsatz der
verschiedenen IMRT Techniken erreicht. Vereinzelte Publikationen
belegen darüber hinaus, dass die zusätzliche Schonung der
Submandibulardrüsen auch zu einer Verminderung der Xerostomie
führen kann. Ziel dieser Planungsstudie war es, zusätzlich zur
Parotidenschonung, die Submandibulardrüsen zu entlasten. Die
Planung erfolgte in VMAT Technik.
Methodik: Es wurden retrospektiv sieben Patienten mit Kopf-HalsTumoren für die Planung ausgewählt. Bei ihnen war eine einseitige
Schonung der Submandibulardrüsen möglich, ohne das Rezidivrisiko zu
erhöhen. Die geplante Dosis betrug 70 Gy. Die Bestrahlungsplanung
erfolgte mittels Eclipse (Fa. Varian, Palo Alto, USA). Als Risikoorgane
wurden beide Parotiden, Rückenmark und Mundhöhle eingezeichnet.
Die VMAT Pläne wurden mit zwei Bögen gerechnet. Für die Optimierung
wurden die Bestrahlungspläne hinsichtlich der Zielvolumenabdeckung
(Dmin, Dmax) und der Schonung von Risikoorganen beurteilt.
Ergebnisse und Diskussion: Für alle untersuchten Patienten konnte in
VMAT Technik eine gute Zielvolumenabdeckung und Schonung der
Risikoorgane
erreicht
werden.
Die
Dosisbelastung
der
Submandibulardrüsen konnte auf eine mittlere Dosis von weniger als 39
Gy gesenkt werden. Bisher publizierte Daten zur Speichelflussrate
weisen auf einen Schwellenwert zur Verminderung einer Xerostomie in
diesem Dosisbereich hin. Alle Pläne zeigten hohe Homogenität und
Konformalität.
Schlussfolgerung: Mit VMAT Technik war es für Patienten mit KopfHals-Tumoren möglich hochkonformale Bestrahlungspläne mit guter
Schonung der Parotiden und der Submandibulardrüsen zu erzielen. Ob
diese Schonung der Submandibulardrüsen zu einer klinisch relevanten
Verminderung der Xerostomie führt, ist einer klinischen Studie
vorbehalten.
P10.04
Ein subjektiver Vergleich verschiedener IMRT-Pläne bei HNO-Fällen
S. Kampfer, C. Winkler, S. Astner, M. N. Duma, P. Kneschaurek, H.
Geinitz;
TU München, Klinikum rechts der Isar, Klinik und Poliklinik für
Strahlentherapie und Radiologische Onkologie, München, Germany.
Einleitung: Die Zahl der mit Intensitätsmodulierter Strahlentherapie
(IMRT) behandelten Patienten steigt stetig an. IMRT-Behandlungen
werden inzwischen immer häufiger als Standardbehandlungsmethode
bei bestimmten Tumorarten angesehen, unter anderem bei komplex
geformten Planungsvolumina wie sie oftmals im Kopf-Hals-Bereich zu
finden sind.
Kontinuierliche Weiterentwicklungen von Linearbeschleunigern und
Planungssystemen ergeben ein breites Spektrum an Möglichkeiten. Ziel
dieser Arbeit ist es IMRT-Pläne verschiedener in unserer Klinik
vorhandenen Systeme subjektiv zu vergleichen.
Material und Methoden: Ausgewertet wurden 10 postoperative HNOPatienten, die in unserer Klinik einen IMRT-Plan des Planungsystems
Oncentra MasterPlan (OTP, Theranostic, Solingen) erhalten hatten und
damit an einem Siemens Oncor (1 cm Leaves) bestrahlt wurden.
Retrospektive wurden jeweils ein Tomotherapie-Plan (TomoTherapy,
Madison) sowie zwei Pläne (je einer mit fünf und sieben Feldern [5F
bzw. 7F]) für einen Varian Trilogy mithilfe der Software Eclipse (Varian,
Paolo Alto, USA) gerechnet. Oberstes Ziel bei der Planung (Dosierung
auf den Median) war das Planungsvolumen gut abzudecken,
untergeordnet sollte die Risikoorganschonung erfolgen.
Die subjektive Auswertung der jeweils vier berechneten Pläne pro
Patient wurde von drei Fachärzten der Klinik verblindet vorgenommen.
Hierfür wurden die Pläne in die Software Prosoma 3.1 der Firma
MedCom (Darmstadt) eingelesen und dort verglichen. Zusätzlich wurden
der Homogenitäts-Index (HI), der Konformitäts-Index (CI), die mittlere
Dosis der Parotiden, sowie das Dosismaximum im Myelon erfasst.
126
Ergebnisse: Alle Pläne waren aus klinischer Sicht zur Behandlung von
Patienten akzeptierbar. Die Auswertung der Fachärzte ergab eine
Präferenz bei 5 Patienten für den Tomotherapie-Plan und bei 5
Patienten für einen der beiden Eclipse-Pläne (zweimal für 5F, dreimal für
7F). In 6 Fällen war das Ergebnis einstimmig, in 4 Fällen mit 2 der 3
Stimmen.
Beim Vergleich der Pläne hinsichtlich des HI lieferte in 7 Fällen die
Tomotherapie, in 3 Fällen Eclipse das beste Ergebnis. In Bezug auf den
CI schnitten die Tomotherapie sowie Eclipse gleich ab.
In 5 der 6 einstimmig ausgewählten Pläne war der HI im Vergleich der
beste unter den Vergleichsplänen, in zwei Fällen der CI. Nur in einem
Fall hatten sich die Fachärzte mit zwei Stimmen für einen Plan
entschieden, der weder bezüglich HI, noch CI den Vergleich anführte. Im
Mittel hatte die Tomotherapie die niedrigsten Maxima für das Myelon, die
Eclipse 7F-Pläne dagegen die besten Werte für den Mittelwert der
Parotiden.
Diskussion: Die subjektive Auswahl der Bestrahlungspläne ergab zwar
in Summe keinen Vorteil eines bestimmten Systems, im Einzelfall (4
einstimmige Entscheidungen für Tomotherapie, 2 für Eclipse) können
jedoch wesentliche Unterschiede auftreten. Diese gilt es in weiteren
Arbeiten aufzuzeigen.
Die ausgewerteten objektiven Kriterien bescheinigen den TomotherapiePlänen eine etwas größere Homogenität. In Bezug auf die Konformität
sowie die Risikoorganschonung ist das Ergebnis nicht eindeutig.
P10.05
Ein neuer Typ von Dose-Volume-Objectives bei der VMAT-Planung
von Patienten mit Prostatakarzinom: Surrounding Dose Fall-Off
M. Treutwein, M. Hipp, O. Kölbl, B. Dobler;
Uniklinik Regensburg, Klinik und Poliklinik für Strahlentherapie,
Regensburg, Germany.
Einführung: Das Ziel dieser Planungsstudie ist es, Eignung,
Eigenheiten und Besonderheiten eines neuen Typs von Dose-VolumeObjectives (DVO), des sogenannten Surrounding Dose Fall-Off (SDFO),
bei der Planung von Patienten mit Prostatakarzinom mit der VMATTechnik zu ermitteln. Dieser Typ erlaubt eine direkte Beeinflussung des
Dosisgradienten in der Umgebung des Planungszielvolumens (PTV).
Dieses neue DVO wird im von der Fa. RaySearch Laboratories AB,
Stockholm, SE entwickelten Optimizer-Modul des Planungssystems
Oncentra®, Version 4.0 der Fa. Nucletron BV, Veenendaal, NL
angeboten. Diese Pläne (Set1) werden mit der bisherigen bei uns
üblichen Planungsstandardtechnik verglichen (Set2).
Material und Methoden: In diese Planungsstudie wurden sechs
Patienten mit lokalisiertem Prostatakarzinom eingeschlossen. Das PTV,
das Rektum, die Harnblase und beide Femurköpfe wurden als Regions
of Interest (ROI) markiert; ebenso zusätzlich das dorsale Rektum und als
Hilfsstruktur für die bisherige Standardtechnik die Außenkontur
abzüglich des PTV mit umschließendem Margin mit 5mm (AK-PTV5mm)
also praktisch das Normalgewebe. Die VMAT-Optimierung wurde als
simultan integrierter Boost in 33 Fraktionen angesetzt, mit für beide
Plansets identischen DVO in Tabelle 1.
ROI
DVO
Dors.
Femurköpfe
Rektum
Min. Min. Max. DosisDosis- Max.
DosisDosis Dosis Dosis Volumen Volumen Dosis Volumen
59,4 71,0 74,2
50
70
50
50
PTV CTV CTV Harnblase Rektum
Dosis /Gy
Prozentsatz
des
100 100 100
Volumens
Gewichtung 3000 3000 3000
Tabelle 1
50
20
100
50
1000
1000
1000
300
Set 1 erhielt zusätzlich die SDFO-Objectives: von 59 Gy ab PTVOberfläche auf 1cm Abstand auf 29,5 Gy abfallen und von 59 Gy ab
PTV-Oberfläche auf 6cm Abstand auf 6 Gy abfallen, beides mit einer
Gewichtung von 100.
Im Set2 wurden auf (AK-PTV5mm) folgende 2 DVO gesetzt:
Dosis /Gy
Prozentsatz des Volumens
Gewichtung
Tabelle 2
56
100
3000
45,0
5
3000
Die Geräteparameter eines Beschleunigers vom Typ SynergyS der Fa.
Elekta wurden wie folgt festgelegt: Single Arc Rotation von 182°-178°,
Collimator 45°. Die Ergebnisdaten für beide Sets wurden über die sechs
Patienten gemittelt. Außerdem wurde die Homogenität H der Dosis im
CTV nach folgender Formel bestimmt: H = (D5-D95)/DAV [1] und die
Monitoreinheiten (MU) ermittelt.
Ergebnisse: Die Ergebnisse sind in Tabelle 3 in Gy, bzw. als
Zahlenwert zusammengefasst.
HCTV
PTV
minD
MU Femurk.Median Harnbl.Median
Set
5,6% 58,3 577
1
Set
5,5% 59,6 540
2
Tabelle 3
Dorsales
RektummaxD
RektumD20
22,7
42,1
51,1
56,3
24,9
42,1
49,6
56,5
Abbildung 1 zeigt die Dosis-Volumen-Histogramme für beide Pläne
eines Patienten. Die gestrichelten Kurven repräsentieren den bisherigen
Standard, die durchgezogenen den Plan mit SDFO.
Diskussion und Schlussfolgerung: Die Homogenität im CTV ist
praktisch gleich. Die Dosiswerte für beide Sets ähnlich, die DVO werden
größtenteils eingehalten. Lediglich die MU scheinen mit dem neuen DVO
etwas höher auszufallen, größere Versuchsreihen wurden mit dem
SDFO allerdings auch noch nicht durchgeführt. Das neue DVO bietet
eine brauchbare und intuitive Hilfe zur Optimierung.
Literatur: [1] Georg D, Kroupa B, Georg P et al. Inverse Planning - a
Comparative Intersystem and Interpatient Constraint Study. Strahlenther
Onkol, 182; 2006, 473[[Unsupported Character - &#8208;]]480.
Disclaimer: Die Arbeit wurde teilweise durch die Fa. Theranostic,
Solingen gefördert.
Trotz dieser guten Resultate werden wie von der DIN 6875-3 (7)
empfohlen alle Patientenpläne von einem unabhängigen Messsystem
überprüft. Am KHDF wird dazu das zylindrische Messphantom
ArcCHECK mit der entsprechenden Auswertesoftware MapCHECK der
Firma SunNuclear verwendet. Auf dem zylindrischen Phantom mit einer
Länge und einem Durchmesser von 21 cm sind 1386 Dioden (0,8 x 0,8
mm) spiralförmig angeordnet. Die Detektoren zeigen ein- und
austretende Strahlung, Vergleiche können sowohl zwischen zwei
Messungen als auch zwischen einem Bestrahlungsplan und einer
Messung gezogen werden. Die Detektoren mit größeren Abweichungen
werden sofort farblich markiert. Für die Auswertung stehen zwei
Analysemodelle zur Verfügung: Distance-to-Agreement- und GammaAnalyse. Ebenso kann zwischen einer absoluten und einer relativen
Gegenüberstellung gewählt werden. Für jeden Modus sind beliebige
Parameter eintragbar. Im KHDF werden alle Messungen mit den
Bestrahlungsplänen anhand der Gamma-Analyse (3%, 3mm) verglichen.
Die bisher ausgewerteten Patienten liegen bei einer Passrate zwischen
95% bis 100%. Nur in seltenen Fällen lag die Erfolgsquote zwischen
85% und 95%.
Abb. 1
P10.06
Klinische Implementation und Erfahrungen mit VMAT am KH
Dresden-Friedrichstadt
S. Pensold, H. Tümmler, P. Schilling, K. Merla, B. Theilig;
Krankenhaus Dresden-Friedrichstadt, Dresden, Germany.
In der Praxis für Strahlentherapie am Krankenhaus DresdenFriedrichstadt kommt seit September 2010 die Volumetric-ModulatedArc-Therapy (VMAT) zum Einsatz. Nach einer weiteren Umbauphase im
Januar 2011 sind nun 2 Clinac-Beschleuniger der Firma Varian in der
Lage intensitätsmodulierte Rotationsbestrahlungen durchzuführen.
Bisher wurden insgesamt 140 Patienten, bzw. ca. 200 Bestrahlungspläne (Stand 30.3.2011) mit dieser Technologie bestrahlt. Vorwiegend
kommt das VMAT-Verfahren bei Tumoren im Abdomen-, bzw.
Beckenbereich zum Einsatz (Prostata 48,8%, Rektum 24,0%, Becken
9,6%), aber auch HNO-Tumore sind bereits behandelt worden (10,4%).
Vor der Inbetriebnahme der VMAT-Technik erfolgte eine umfangreiche
Messung zur Stabilität und erreichbaren Genauigkeit. Wir folgten im
Wesentlichen
den
Empfehlungen
aus
der
Veröffentlichung
„Commissioning and Quality Assurance of RapidArc™ Radiotherapy
Delivery System“ (Ling et al., Int. J. Radiation Oncology Biol. Phys., Vol.
72, No. 2, pp. 575-581, 2008). Hier wurden verschiedene Faktoren
während einer VMAT-Bestrahlung überprüft, zum Beispiel die
Leafpositionierung für eine Vollration (Gartenzauntest), sowie die
Genauigkeit der Regelung der Dosisleistung in Abhängigkeit von Gantryund Leafgeschwindigkeit. Die Auswertung erfolgte anhand von Filmen
(Kodak X-OMAT). Die Genauigkeit der Leafpositionierung bei einer
Vollrotation lag bei 0,5 mm, die Abweichungen der Homogenität in den
beiden anderen Tests (Dosisleistung/ Gantrygeschwindigkeit; Dosisleistung/ Leafgeschwindigkeit) waren jeweils kleiner als die vom
Hersteller angegebenen 2 % im Vergleich zu einem offenen Feld.
Beispielhaft wird das in folgender Tabelle für den Test der
Gantrygeschwindigkeit zur Dosisleistung veranschaulicht.
Leafposition -3cm -1cm 0cm
1cm
3cm
5cm
7cm
Abweichungen 1,59% -0,11% -0,04% -0,09% -0,67% -0,93% 0,26%
Tabelle 1. Auswertung Dose-Rate Gantry-Speed Tests
Für Bestrahlungspläne mit niedriger Passrate wird zur Zeit mit Hilfe
eines weiteren Verfahrens eine Kontrollmessung durchgeführt. Dazu
wird das Flachdetektorsystem „Portal Vision“ der Firma Varian benutzt,
welches sich direkt am Beschleuniger befindet. Eine adäquate
Auswertung der Messergebnisse steht jedoch noch aus und soll in den
nächsten Monaten erfolgen.
P10.07
Verifikation der (Rotations) IMRT - ein Systemvergleich
1
1
1
1
1
B. Mitterlechner , F. Merz , P. Kopp , C. Gaisberger , H. Schöller , S.
2
2
1,2
1,2
Huber , M. Mooslechner , F. Sedlmayer , H. Deutschmann ;
1
Universitätsklinik für Radiotherapie und Radio-Onkologie, Salzburg,
2
Austria, Institut für Technologieentwicklung in der Strahlentherapie
radART der Paracelsus Medizinischen Privatuniversität, Salzburg,
Austria.
Einleitung: Mittels komplexer Bestrahlungstechniken wie der
intensitätsmodulierte Radiotherapie (IMRT im step & shoot oder sliding
window Verfahren) und Rotations-IMRT (IMAT/VMAT/Rapid Arc) können
die Homogenität im Zielvolumen verbessert, die Dosisbelastung von
umliegendem Normalgewebe reduziert und dadurch die Dosis im zu
bestrahlenden Tumorvolumen eskaliert werden. Die Überprüfung der
Übereinstimmung von geplanter und abgegebener Dosis ist in diesem
127
Zusammenhang obligat.
Methoden: Ziel dieser Arbeit war es, einen Literaturüberblick zu
bestehenden Methoden, die Zusatzausrüstung (Messmittel, Phantome)
benötigen oder sich einfach des Electronic Portal Imaging Devices
(EPID) bedienen, zu verschaffen und diesen kritisch zu reflektieren.
Hierfür wurde die Literatur zu den Methoden von PTW Octavius + PTW
Seven29, Scandidos Delta4, IBA Dosimetry MatriXX, Theraview
Technology TheraViewCL bzw. TheraViewNT/iGT, Sun Nuclear
EPIDose/ ArcCheck und Portdose Portal Dosimetry Software der NKI
AvL Gruppe sowie unsere eigene Arbeit (Flat Panel Dosimetrie mit
open-radART) verglichen.
Ergebnisse: Es kann zwischen drei unterschiedlichen Verfahren zur
Dosisverifikation unterschieden werden: Den kommerziellen Lösungen,
die
zusätzliche
Hardund
Software
unabhängig
vom
Linearbeschleuniger benötigen, den Methoden mit zusätzlicher Hardund Software im Zusammenspiel mit dem EPID sowie den Methoden zur
Verifikation mittels EPID mit zusätzlicher Software. Gemäß Literatur sind
die Messergebnisse der Methoden von PTW, SUN Nuclear (ArcCheck),
ScandiDos, IBA miteinander vergleichbar (Dosismessgenauigkeit
innerhalb 3%), die Systeme unterscheiden sich durch die Art der
Kalibrierung bzw. durch den Messaufwand, sowie auch durch deren
Detektorauflösung. Bei den Messungen mittels EPID sind die
dosimetrischen Messgenauigkeiten mittels neuer Korrekturen mit den
oben genannten Methoden vergleichbar, jedoch ist das Ergebnis stark
von der zugrundeliegenden EPID Qualität (Alterung, Strahlenschäden)
abhängig.
Zusammenfassung/ Diskussion: Für die dosimetrische Verifikation
von Bestrahlungsplänen sind Verfahren in einem Genauigkeitsbereich
von rund 3% kommerziell erhältlich. Um den durch das EPID
entstehenden Vorteil der integrierten in-vivo Patientendosimetrie (online
möglich) ausbauen zu können, müssen Methoden zur Verbesserung der
EPID Bildqualität und Korrektur der temperaturabhängigen Artefakte
entwickelt werden und in die Produkte der Hersteller einfließen.
Andernfalls werden die Messergebnisse durch alternde Detektoren und
somit schlechterer Bildqualität verfälscht.
P10.08
Linac based radiosurgery and hypofractionated radiotherapy
combining dynamic conformal arcs and IMRT fields
1
1
2
1
D. Schmidhalter , M. Malthaner , A. Pica , E. J. Born ;
Division of Medical Radiation Physics, Inselspital - University of Bern,
2
Bern, Switzerland, Department of Medical Radiation Oncology,
Inselspital - University of Bern, Bern, Switzerland.
1
Introduction: Radiosurgery and hypofractionated radiotherapy are
known methods for many different tumors especially in the cranial
region. One imported example is the treatment of brain metastases. At
the Inselspital in Bern we often use a combination of dynamic conformal
arcs (DARCs) and intensity modulated radiation therapy (IMRT) to treat
such lesions.
The aim of this work was to compare treatment plans combining DARCs
and IMRT fields with pure DARC plans.
Material and methods: In the DARC only method (DARC method), the
treatment plan consists of five DARCs. In the second method (combined
method), a combination of three DARCs and 3 to 4 IMRT fields was
used. The fields in the combined method were arranged into two
different groups: The DARC and the IMRT group. The contribution of the
two groups to the total dose can be selected by the user (group
weighting factor). Using the combined method, the dose distribution was
first calculated for the DARC group. Then the optimization of the IMRT
fields was carried out in a second step based on the previously
calculated dose distribution.
The treatment planning was performed with the RTDose module (version
4.1.2) within the treatment planning software iPlan (Brainlab). The plans
were treated with the linear accelerator Novalis TX (Varian, Brainlab)
where the patient setup was carried out using the ExacTrac X-ray
system in combination with a robotic 6D couch (Brainlab).
Results: For the combined method the dose homogeneity inside the
PTV is clearly increased in almost all cases compared with the DARC
method. An example of a dose volume histogram (DVH) for one case is
shown in figure 1. The dose distribution is more conformal to the PTV
when using the combined method, especially if the PTV had a convex
shape. The treatment plans of both methods can be delivered within
about 30 minutes (patient setup included).
Discussion: In our clinic the group weighting factor is chosen in such a
way, that the maximum dose in the target volume from the DARC group
equals approximately the prescribed dose. Using the combined method
and aiming in a dose distribution as homogeneous as possible, the
fluence maps of the IMRT fields normally result in high values at the
edge of the fields because they compensate the underdosage yielded by
the DARCs in these regions. These hot beamlets can cause some
problems in pretreatment QA measurements (small field dosimetry).
Additionally, an accurate patient setup is very important. However, to
128
reduce these problems one can use the option 'hot beamlet reduction'
available in the iPlan software. Additionally, the beamlet size should not
be chosen too small.
Conclusion: In linac based radiosurgery or hypofractionated
radiotherapy it is possible to combine DARCs and IMRT fields for
treatment. Although the combined method is more crucial in terms of QA
compared with the DARC method, the treatment plan quality is improved
and has the potential of a better patient care.
P10.09
Impact of dose rate variation in RapidArc planning
E. Vanetti, G. Nicolini, A. Clivio, A. Fogliata, L. Cozzi;
IOSI, Bellinzona, Switzerland.
Purpose: An investigation was performed to evaluate the robustness
and mutual interplay of two variables concurring to generate modulation
patterns of the Varian implementation of Volumetric Modulated Arc
Therapy (VMAT), RapidArc. Dose Rate (DR) and Gantry Speed (GS) are
free parameters optimized alongside field aperture shape by the
RapidArc engine; however they are limited by machine constraints, and
mutually compensate in order to deliver the proper MU/° during the
gantry rotation.
Methods: Four test cases (one geometrical and three clinical (head and
neck, prostate, lymphoma)) were selected and RapidArc plans were
optimized using maximum allowed dose rates from 100 to 600 MU/min.
The maximum gantry speed was fixed to 4.8°/s. The RapidArc
Progressive Resolution Optimization Algorithm (PRO) was used in its 8.6
version; it was also known as PRO-II, which was kept without substantial
modifications until version 8.9 included. For all maximum dose rates, the
same planning objectives (both in terms of dose-volume constraints and
priorities) were used, and in no case any interactive adjustment was
performed during the optimization phase.
Qualitative analysis of DR and GS patterns from these cases was
summarized together with quantitative assessment of delivery
parameters; in particular, all the so-called dynamic log files generated by
the Linac Controllers were analyzed. Pre-treatment quality assurance
measurements and scoring of plan quality aimed to determine whether
preferable initial conditions might be identified, or the optimization engine
might be invariant to those variables and capable of providing adequate
plans independently from the limits applied.
Results: The results of the study were:
i) high dynamic range in MU/deg is achievable across all dose rates by
means of gantry speed modulation;
ii) there is a robust compensation mechanism between the two variables;
iii) from a machine delivery point-of-view, slightly improved accuracy is
achieved when lower DRs are applied; however, this does not have
practical consequences since measurements and plan evaluation
showed a lack of clinically relevant deviation;
iv) reduced total treatment time is a major advantage of high DR.
Conclusion: A trend towards improved plan quality for clinical cases
was observed with high DR but cannot be generalized, due to the limited
amount of cases investigated and the consequent limited significance of
the observed differences. As a minimum benefit, the reduced total
treatment time should be considered as well.
P10.10
Verifikationsanalyse von Rapidarc Plänen mit zwei Messgeräten in
Bezug auf Sensitivität und Gamma-Index als Akzeptanzkriterium
1,2
1
2
G. Heilemann , B. Poppe , W. Laub ;
Carl-von-Ossietzky Universität Oldenburg, Oldenburg, Germany,
2
Oregon Health & Science University, Portland, United States.
1
Einleitung: Ziel der Studie ist die Charakterisierung der Sensitivität
zweier Detektorarrays bezüglich kleiner MLC Positionsfehler und
Gravitationseffekten. Es wird untersucht inwieweit beide Messgeräte
eine ausreichend hohe Sensitivität aufweisen. Eine weiter wichtige
Fragestellung ist die Untersuchung, ob sich das weit verbreitete globale
Akzeptanzkriterium „Prozentzahl der akzeptierten Kammern nach einer
Gamma-Index Analyse 3%/3mm“ für die IMRT Planverifikation als
geeignet erweist.
Methode: In insgesamt elf klinischen Rapidarc Plänen wurden
verschiedene MLC Positionsfehler mittels einer eigens erstellen
Software eingeführt, darunter fünf Prostata Fälle (zwei Arcs), drei
Head&Neck Fälle mit zwei Arcs sowie drei Head&Neck Fälle mit je drei
Arcs. Vier Typen von MLC Manipulationen wurden mit allen Rapidarc
Plänen durchgeführt: (1) alle aktiven Lamellen werden für jeden
Kontrollpunkt um 0,25mm, 0,50mm und 1.00mm geöffnet, (2) alle
aktiven Lamellen werden um 0.10mm, 0.25mm und 0.50mm
geschlossen, (3) alle aktiven Lamellen werden um 1mm, 2mm und 3mm
in dieselbe Richtung geschoben, um die Wirkung von Gravitationskräften
auf den MLC zu simulieren, (4) 25%, 50% und 75% aller aktiven
Lamellen werden analog zu (3) um 3mm verschoben. Der Originalplan
und die modifizierten Pläne wurden sowohl mit dem Octavius 2DARRAY (PTW-Freiburg) als auch mit dem Delta4 (Scandidos) gemessen
und anhand der Gamma-Index-Kriterien 3%/3mm und 2mm/2%
verglichen. Darüber hinaus wurden die modifizierten Pläne in Eclipse
importiert, um den klinischen Effekt der Modifikationen auf die Dosis im
Zielvolumen zu untersuchen.
Ergebnisse: Das Standardkriterium für Verifikationsmessungen mit dem
Gamma-Index von 3%/3mm reicht nicht aus, um Fehler in der
untersuchten Größenordnung zu entdecken. Der Import der
modifizierten Pläne hat signifikante Dosisunterschiede im Zielvolumen
aufgezeigt, die mit 3%/3mm unerkannt bleiben und Aktzeptanzraten von
über 90% erreichen. Schon die mittlere Modifikation mit einem um
0.50mm geöffneten MLC (Typ 1) führt zu einer um 2% erhöhten
durchschnittlichen Dosis im Zielvolumen. Die Messungen mit beiden
Geräten erreichen mit dem Standardkriterium 3%/3mm Passing-Rates
von über 97% und unterscheiden sich somit kaum von dem Originalplan.
Die Modifikationen vom Typ 3&4 verändern die maximale und minimale
Dosis des Zielvolumens drastisch. So wird die minimale Dosis im
Zielvolumen für die größte Gravitationsverschiebung von 3mm um 6%15% gesenkt und die maximale Dosis, die das Zielvolumen abbekommt
um 3%-9% erhöht. Diese modifizierten Pläne erreichen mit 3%/3mm
Passing-Rates zwischen 91% und 97% und würden so bei der
Verifikation unerkannt bleiben. Für die Messungen wird daher das
strengere Kriterium 2%/2mm benutzt, damit diese klinisch relevanten
Fehler auch tatsächlich in den Verifikationsmessungen detektiert werden
können. Bei den untersuchten Fällen fällt die Passing-Rate unter den
definierten Grenzwert von 90% aller Detektoren für die jeweils größte
simulierte Modifikation, während die kleinste Modifikation aller vier
Fehlertypen in den meisten Fällen kaum Unterschiede zu der
Verifikationsmessung des Originalplans aufweist.
Diskussion: Beide Geräte sind in der Lage MLC Positionsfehler in der
untersuchten Größenordnung mit einem Gamma-Index-Kriterium von
2%/2mm zu erkennen. Das Standardkriterium von 3%/3mm reicht für die
verwendeten RapidArc Pläne nicht aus, um kleine, aber klinisch
signifikante Fehler zu detektieren. Darüber hinaus zeigt die Studie, dass
der Prozentsatz der akzeptierten Kammern nicht als alleiniges Kriterium
bei der Verifikationsanalyse ausreicht, sondern auch eine lokale Analyse
der Abweichungen erforderlich sein kann.
P10.11
Untersuchung von MLC-Parametern für die dynamische IMRT
M. Bähr, F. Wetzel;
Städtisches Klinikum Braunschweig, Braunschweig, Germany.
Ziel: Für die Berechnung der Dosisverteilung bei dynamischer IMRT
(sliding window) benötigt das Planungssystem Eclipse der Fa. Varian die
energieabhängigen Parameter Leaf Transmission und dosimetric leaf
gap. Beide Parameter wurden in Abhängigkeit von Energie, Feldgröße,
Messtiefe und Gantrywinkel bestimmt.
Material und Methode: Die Messungen wurden an einem Clinac DHX
(Fa. Varian) für die beiden Photonenenergien 6 MV und 10 MV in einem
Plexiglasphantom und mit einer 0.3 cm³-Stielkammer (23332) der Fa.
PTW durchgeführt. Messort war das Isozentrum. Es wurden die
Parameter bei den Feldgrößen 5x5, 10x10 und 15x15 cm² in den
äquivalenten Wassertiefen von 6, 10 und 15cm bestimmt. Um den
Einfluss der Bewegungsrichtung der Leafs auf den dosimetric leaf gap
zu erhalten, wurden die Messungen bei den Gantrywinkeln 0°, 90° und
270° durchgeführt. Die Leaf-Transmission wurde neben dem
Zentralstrahl zusätzlich in der Mitte eines jeden Quadranten gemessen.
Die Leaf-Transmission errechnet sich aus dem Verhältnis der Dosen aus
offenem und durch MLC geschlossenem Feld. Die Bestimmung des
dosimetric leaf gap erfolgte nach der Verfahrensanweisung der Fa.
Varian, für die die Dosis bei dynamischen Feldern mit unterschiedlich
großem Leafspalt gemessen wird.
Ergebnisse: Bei beiden Photonenenergien nimmt die Transmission mit
der Feldgrösse und der Messtiefe zu. Bei 6/10MV variiert die
Transmission vom kleinsten Feld zum größten Feld bei einer Messtiefe
von 10cm um 9% und auch bei zunehmender Messtiefe in der jeweiligen
Feldgröße nimmt die Transmission zu.
Feldgröße (cm²)
5x5
10x10
15x15
6MV
0,0146
0,0152 +/- 0,004
0,0161 +/- 0,004
10MV
0,0167
0,0169 +/- 0,005
0,0182 +/- 0,004
Transmission der Photonenenergien bei einer Messtiefe von 10cm
Eine Änderung der Transmission in den jeweiligen Quadranten wurde
nicht nachgewiesen.
Der dosimetric leaf gap nimmt bei beiden Photonenergien mit
zunehmender Feldgrösse und Messtiefe ab, bei 6 MV um ca. 10% und
bei 10MV um 5% bei einer Messtiefe von 15cm.
Feldgröße (cm²)
5x5
10x10
15x15
6MV
0,198
0,187
0,179
10MV
0,250
0,241
0,239
Dosimetric leaf gap der Photonenenergien bei einer Messtiefe von 15cm
Bei der Untersuchung des Einflusses der Bewegungsrichtung der Leafs
zeigt sich keine signifikante Abhängigkeit bei den verschiedenen
Gantrywinkel.
Schlussfolgerungen: Eine Zunahme der Transmission bei
zunehmender Feldgröße kann damit erklärt werden, das zum einen das
offene Feld grösser ist und die Kammer somit mehr Dosis detektiert und
zum anderen ist die Interleafstrahlung bei geschlossenen MLC größer
da die Blenden bei zunehmender Feldgröße weiter aufgefahren werden.
Der dosimetric leaf gap dagegen nimmt mit zunehmender Feldgrösse
und Messtiefe ab. Für die Konfiguration des Planungssystems haben wir
uns für die Werte bei FG 10x10cm² in der Tiefe von 10cm entschieden,
weil nach Durchsicht von 50 IMRT-Planungen diese dem Durchschnitt
der tatsächlichen Strahlgeometrien am ehesten entsprechen. Die
Überprüfung der Dosisberechnung mittels Portal-Dosimetrie verlief
bisher zufriedenstellend.
Transmission
Dosimetric Leaf gap
6MV
0,0152
0,188
10MV
0,0169
0,239
Werte für das Planungssystem
P10.12
Validierung des rechnerischen und messwertgestützten
Planverifikationssystems COMPASS anhand von
volumenmodulierten Rotationsbestrahlungsplänen im Kopf-Bereich
R. Hielscher, D. M. Wagner;
Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie,
Göttingen, Germany.
Einleitung: Bei der volumenmodulierten Rotationsbestrahlung (engl.
VMAT) werden durch optimaler Modellierung der dynamischen
Multileafkollimatoren (MLC) Feldformen und Dosisleistung optimiert, um
das vorgegebene Zielvolumen optimal zu erfassen und gleichzeitig
umliegende Organe und Gewebe optimal zu schonen. Zur
Gewährleistung
der
Genauigkeit
wird
jeder
dynamische
Bestrahlungsplan vor der ersten Bestrahlung patientenbezogen
verifiziert. Mit Hilfe des COMPASS Systems (IBA Dosimetry,
Schwarzenbruck, Deutschland) kann die Dosisverteilung rechnerisch
und messwertgestützt dreidimensional rekonstruiert und mit dem
Planungssystem verglichen werden. Das benötigte Beammodell im
COMPASS System wird zuvor an den verwendeten Linearbeschleuniger
angepasst. Ziel dieser Arbeit ist es, VMAT Bestrahlungspläne im KopfBereich durch ein unabhängiges Verifikationssystem zu überprüfen.
Methode: Das COMPASS System besteht aus einem Flächendetektor
(MatriXX-Evolution), montiert mittels Gantryhalter (SSD = 100 cm) direkt
am Kollimatorkopf des Beschleunigers, einem Winkelsensor, sowie
einem Softwareprogramm für Auswertung und Visualisierung der
129
erhobenen Ergebnisse. Nach der Optimierung und Berechnung der
Dosisverteilung eines VMAT Bestrahlungsplans mittels Eclipse (Varian
Medical Systems, Helsinki, Finnland) wurde der komplette
Patientendatensatz exportiert und im COMPASS System importiert.
Mittels des kommissionierten Beammodells in COMPASS wurde die
Dosisverteilung von zehn VMAT Bestrahlungsplänen im Kopf-Bereich
gemessen und rekonstruiert sowie berechnet. Zur Bestrahlung des
Glioblastoms wird eine Gesamtdosis (GD) von 60 Gy mit einer
Einzeldosis (ED) von 2 Gy verschrieben. Ein anderes Therapiekonzept
im Kopf-Bereich sieht eine GD von 30 Gy (ED 2,5 Gy) auf das gesamte
Gehirn mit einem integrierten Boost auf die Metastasenregion von GD
45 Gy (ED 3,75 Gy) vor. Zur Auswertung wurde das Dosis-VolumenHistogramm (DVH) mit den Grenzen 99% und 95% der Dosis im PTV,
100% der Dosis im CTV sowie 100% der Dosis im gesamten Gehirn,
nicht mehr als 45 Gy im Rückenmark, nicht mehr als 6 Gy in den Linsen,
nicht mehr als 54 Gy im Hirnstamm, Chiasma und Nervi Optici
herangezogen.
Ergebnisse: Der Vergleich der DVH von COMPASS berechneten sowie
gemessenen VMAT Bestrahlungsplänen im Kopf-Bereich mit dem
Bestrahlungsplans aus Eclipse zeigt gute Übereinstimmungen im PTV
und den Risikoorganen (OAR). Die statistische Auswertung der
Ergebnisse liefert Abweichungen unter 3%, wobei die gemessenen
VMAT-Pläne im COMPASS geringere Abweichungen besitzen als die
berechneten VMAT-Pläne im COMPASS. Des Weiteren ermöglicht die
statistische Auswertung einen schnellen Überblick über etwaige
Tendenzen der Dosisentwicklung im Zielvolumen und eine deutliche
Warnung falls die gewählten Grenzwerte der OAR überschritten werden.
Schlussfolgerung: Diese Arbeit zeigt die klinische Validierung des
dreidimensional gestützten Verifikationssystems COMPASS für VMAT
Bestrahlungspläne im Kopf-Bereich und einer übersichtlichen
Darstellung
der
Ergebnisse
für
VMAT
BestrahlungsplanQualitätskontrolle. Es konnte gezeigt werden, dass aus 2D
Fluenzmessungen von VMAT Bestrahlungsplänen im Kopf-Bereich mit
einem gültigen Beammodell und den entsprechenden Patientendaten
die gemessene Dosisverteilung dreidimensional rekonstruiert werden
konnte.
P10.13
Klinische Implementierung des rechnerischen und
messwertgestützten 3D Planverifikationssystems COMPASS für
Rotationsbestrahlungspläne
R. Hielscher, D. M. Wagner;
Universitätsmedizin Göttingen, Strahlentherapie und Radioonkologie,
Göttingen, Germany.
Einleitung: Bei der volumenmodulierten Rotationsbestrahlung (engl.
VMAT) werden durch optimaler Modulierung der dynamischen
Multileafkollimatoren (MLC) Feldformen und Dosisleistung optimiert, um
das vorgegebene Zielvolumen optimal zu erfassen und gleichzeitig
umliegende Organe und Gewebe optimal zu schonen. Zur Gewährleistung der Genauigkeit wird jeder dynamische Bestrahlungsplan vor
der ersten Bestrahlung patientenbezogen verifiziert. Mit Hilfe des
COMPASS Systems (IBA Dosimetry, Schwarzenbruck, Deutschland)
kann die Dosisverteilung rechnerisch und messwertgestützt
dreidimensional rekonstruiert und mit dem Planungssystem verglichen
werden. Ziel dieser Einführung ist es, das benötige Beammodell an die
Beamdaten des verwendeten Linearbeschleunigers anzupassen, um die
dynamischen
Bestrahlungs-pläne
durch
ein
unabhängiges
Verifikationssystem überprüfen zu können.
Material und Methoden: Das COMPASS System besteht aus einem
Softwareprogramm und einer Hardwarekomponente. Der zweidimensionale
Flächendetektor
MatriXX-Evolution
wird
mittels
Gantryhalter (SSD = 100 cm) direkt am Kollimatorkopf montiert. Der an
die Gantry montierte Winkelsensor ermittelt nach Kalibrierung die
Winkelposition und ist mit der MatriXX verbunden. Das Softwaresystem
dient
zur
Visualisierung
und
Auswertung
der
erhobenen
Messergebnisse. Zur Konfiguration des COMPASS Systems wurden für
die Photonenenergie 6 MV Tiefendosiskurven, Querprofile und
Outputfaktoren von nur mit MLC kollimierten quadratischen Feldern von
1x1 bis 40x40 cm² im Wasserphantom mittels Halbleiterdetektor
aufgezeichnet. Mit Hilfe der COMPASS Software wurde aus den
Messdaten das entsprechende Beammodell des verwendeten
Linearbeschleunigers 2300 C/D (Varian Medical Systems, CA, USA)
erzeugt. Quadratische Felder von 1x1 bis 30x30 cm², die nur mit
Blenden begrenzt oder nur mit MLC begrenzt wurden, wurden mit der
MatriXX aufgenommen und zur Optimierung des Beammodells
herangezogen.
Ergebnisse: Der erhobenen Photonenenergiedaten wurden erfolgreich
in das COMPASS System importiert und im Anschluss das
maschinenbezogene Beammodell errechnet. Die Überprüfung der
Absolutdosimetrie erfolgte über einfache Bestrahlungspläne mit
statischen, offenen Feldern unterschiedlicher Größe und Kollimierung.
Die errechneten sowie gemessenen Ergebnisse lieferten einen
130
Dosisunterschied von weniger als 2% Abweichung. Dynamische
Bestrahlungsfelder mit Sliding-Window Technik und unterschiedlicher
Gap-Spanne zeigten gute Übereinstimmungen mit dem TPS.
Schlussfolgerung: Die Maschinenparameter und aufgenommenen
Energiedaten sind ausreichend für die Berechnung der Dosisverteilung
mit dem verwendeten collapsed-cone Algorithmus. Nach erfolgreicher
klinischer Kommissionierung (repräsentativer Patientenkollektiv sowie
Fehlererkennung von manipulierten Plänen) besteht die Möglichkeit,
entweder über Berechnung und/oder Messung mit Rekonstruktion der
Dosisverteilung patientenbezogene Planverifkationen mit dem
COMPASS System durchzuführen.
P10.15
Two methods to improve IMRT QA with the Octavius system
W. Seelentag, H. Schiefer, F. Herberth;
Klinik für Radio-Onkologie, Kantonsspital St.Gallen, St.Gallen,
Switzerland.
Introduction: The Octavius verification system (PTW Freiburg,
Germany) consists of a 2-D detector array (Seven29), positioned in a
hexagonal phantom. A curved cavity in the lower half of the phantom
used at the linac is supposed to correct for the increased absorption in
the detector base plate. The correction works only imperfectly, however,
for oblique beams, and cannot be adapted to individual detector
properties. Two methods to improve this are presented.
Material and methods: The "matrix method" is based on correction
matrices representing the ratio of the calculated to the measured dose
distribution of the Seven29 detectors, when a large single field covering
the entire detector is applied. These matrices were determined at 36
angles between 0 and 180°, with varying angle resolution, depending on
structural changes. For stationary fields at intermediate angles the
corrections are interpolated. This method cannot be applied to arc fields.
For the “m-Octavius method” correction factors for the central region
were averaged from the matrix measurements over 10° intervals. These
factors were converted to equivalent bolus thicknesses, and this bolus
added to the phantom scans in the planning system. Whilst some
degradation of the accuracy has to be expected, the resulting method
can also be applied for arc therapies. For both methods the "linac
phantom" is no longer needed.
10 IMRT plans with 5 to 7 static fields have been calculated for 6MV
photon beams (Elekta Synergy) with Varian Eclipse (Version 8.6, AAA
algorithm). The Gamma evaluation (3mm distance to agreement, 3%
dose difference, suppress doses < 10% of maximum dose) has been
performed with Verisoft (PTW, version 4.1). It has been assumed that a
higher percentage of the area fulfilling the Gamma criterion for any given
measurement implies a more reliable verification method. The original
Octavius verification method (“PTW method” = CT phantom used for
calculation and Linac phantom for measurement) is compared with the
correction methods presented above.
Results: When the local dose criterion is applied, the Gamma criterion
(averaged over the 10 plans) is fulfilled by 87.3% ± 4.1% (PTW), 94.8%
± 3.2% (matrix) and 93.5% ± 3.7% (m-Octavius). The corresponding
values for the global criterion are: 97.0% ± 2.1%, 99.6 %± 0.2% and
99.1% ± 0.6%. When the matrix correction method is taken as a gold
standard, the deviations between calculation and measurement as
determined by the PTW verification method are caused by more than the
half by measurement errors of the Seven29 array. The values of the
matrix and the m-Octavius method differ by less than 1%.
Discussion: When compared to the PTW verification, both verification
methods presented here reduce the number of erroneously detected
deviations between calculation and measurement by some 50 %, which
is considered an important improvement. For both methods, the Linac
phantom is no longer needed. Due to the similarity of the angular
sensitivity dependency, the m-Octavius method can be implemented
easily with arbitrary detectors.
P10.16
IMRT-QA mit dem Octavius II-System (Fa. PTW) - ein
Erfahrungsbericht
1
1
1
1
U. Heinrichs , C. Bornemann , M. Caffaro , N. Escobar Corral , A.
1
2
1
Schmachtenberg , H. Wirtz , M. J. Eble ;
1
Klinik für Strahlentherapie, Universitätsklinikum Aachen, Aachen,
2
Germany, Gemeinschaftspraxis für Strahlentherapie, Singen, Germany.
Die Tumortherapie mittels Intensitätsmodulierter Radiotherapie (IMRT)
ist eine innovative Behandlungstechnik, die sowohl die Feldbegrenzung
als auch die Dosis innerhalb der Feldfläche individuell moduliert. In der
Klinik für Strahlentherapie des Universitätsklinikums Aachen werden seit
2010 jährlich etwa 500 von insgesamt ca. 1500 Patienten mit dieser
Technik behandelt. Dabei entfallen ca. 35% auf urologische, ca. 21% auf
Kopf-Hals-, ca. 13% auf Lungen-, ca. 10% auf Verdauungstrakt-, ca. 5%
auf ZNS sowie ca. 4% auf gynäkologische Tumore. Planung und
Bestrahlung werden mit dem Programm Pinnacle Version 8.0 m (Fa.
Philips) und zwei Linearbeschleunigern der Fa. Elekta (Precise und
SLiPlus) realisiert.
Nach DIN 6875-3 (03-2008) ist für diese Art der Strahlentherapie eine
patientenbezogene Qualitätssicherung vorgeschrieben. Ein großer
Nachteil bei dieser Vorgabe ist allerdings, dass definitive Aussagen zum
einzusetzenden Equipment sowie zur optimalen Wahl der verschiedenen
Prüfparameter von der Planung über die Bestrahlung bis hin zur
Auswertung in der Norm fehlen. Hinweise zur Nutzung der angebotenen
Prüfeinrichtungen, zur Auswertung der Messungen und zur Bewertung
der Ergebnisse, letztendlich zur Beurteilung der Bestrahlungspläne, sind
in Begleitdokumenten und in der zugänglichen Literatur, wenn
überhaupt, nur zeitaufwendig zu finden.
Für eine zügige einheitliche Einführung einer IMRT-Qualitätssicherung
und eine internationale Vergleichbarkeit der Ergebnisse sind diese
Voraussetzungen wenig zufriedenstellend. Insellösungen einzelner
Einrichtungen sind daher keine Seltenheit. Vergleiche der Ergebnisse
unterschiedlicher Vorgehensweisen sind aufgrund individueller
Parameterwahl in der langen Kette von Vorbereitung bis Auswertung der
Qualitätssicherung nur sehr eingeschränkt möglich.
Mit dem Ziel, zukünftigen IMRT-Anwendern die Einführung der
Qualitätssicherung zu erleichtern, ist aus der Implementierung des
Prüfverfahrens in Aachen zusammen mit der Firma PTW ein Leitfaden
entstanden. Dieser basiert auf der Kombination von Pinnacle als
Planungssoftware und den PTW-Komponenten 2D-Array729 und dem
Phantom Octavius sowie der Mess- und Auswerte-Software Verisoft.
Dargestellt werden die einzelnen Schritte beginnend mit dem PlanungsCT des Phantoms, über die Planung in und den Export aus Pinnacle bis
hin zur Auswertung und zum Vergleich der gemessenen mit der
berechneten Fluenzverteilung.
Hierzu sind folgende Punkte kritisch zu betrachten: inwieweit wird das
Ergebnis der Qualitätssicherung beeinflusst durch die Einstellungen am
CT bei der Aufnahme des Phantoms, durch die Vorgabe von
Optimierungsparametern bei der IMRT-Bestrahlungsplanung, die
Eigenschaften der verwendeten Geräte und die Einstellungen der
Auswertesoftware? Wie aussagekräftig ist ein in einem homogenen
Phantom erzieltes Ergebnis für Dosisverteilungen im Patienten, die mit
Hilfsstrukturen geringer Dichte, z.B. im Randbereich von Luftkavitäten,
bei der Bestrahlungsplanung erstellt werden?
Eine besondere Betrachtung erfahren der oft zur Beurteilung
herangezogene Gammaindex und die damit verbundenen Werte für die
Dosis- und Abstandstoleranz. Besonders interessant sind dabei die
feinen Unterschiede der Verwendung eines lokalen oder globalen
Dosisbezugs bzw. einer theoretischen zwei- oder dreidimensionalen
Dosisverteilung hinsichtlich des Abstandes.
Diese Arbeit möchte mit ihren Ergebnissen zur Beantwortung der Frage,
wann ein Plan als sicher bestrahlbar gilt, beitragen und die internationale
Diskussion unterstützen, inwieweit eine IMRT-Qualitätssicherung in
Zukunft vereinfacht und standardisiert werden kann.
P10.17
Einsatzmöglichkeiten des 2D-array seven29 mit dem Oktavius
Phantom der 2. Generation in der Qualitätssicherung der helikalen
IMRT
1
2
2
1
2
R. Fouassi , T. Müdder , F. Schoroth , K. Zink , S. Garbe ;
Technische Hochschule Mittelhessen / Institut für Medizinische Physik
2
und Strahlenschutz, Giessen, Germany, Radiologische
Universitätsklinik, Bonn, Germany.
1
Zielsetzung: In der patientenbezogenen Qualitätssicherung (PQA)
kommt es während der helikalen IMRT am Tomotherapy Hi-Art II
Systems bei der Dosisverifikation des Bestrahlungsplan in Anwesenheit
großer Dichteinhomogenitäten häufig zu Abweichung.
Im Rahmen dieser Untersuchung werden diese Abweichungen durch
Messungen in Anwesenheit von verschiedene Inhomogenitäten bzw.
Dichten betrachtet. Hierzu kommt das 2D-array seven29 mit dem neuen
Oktavius-Phantom der 2. Generation (PTW, Freiburg) zum Einsatz.
Material und Methoden: Für die helikale IMRT kommt in der PQA
routinemäßig das 2D-array seven29 mit Oktavius-Phantom zum Einsatz.
Um die Eignung des Oktavius-Phantoms der 2. Generation in Bezug auf
die PQA zu untersuchen, werden am Tomotherapy Hi-ART II System
wird es mit zwei weiteren dosimetrischen Messmethoden verglichen;
Ionisationskammermessungen mit (Exradin A1SL, Standard Imaging)
und Filmdosimetrie (Kodak, EDR2). Ebenfalls wird das OktaviusPhantom der 1. Generation als Vergleich hinzugezogen.
Das Oktavius-Phantom der 2. Generation ist ein achteckiges
wasseräquivalentes
Festkörperphantom
mit
zwei
Einschubvorrichtungen,
ein
Einschub
zur
Aufnahme
des
Ionisationskammerarrays, die Ionisationskammervorrichtungen und eine
Kassette für Filme, der andere Einschub für z.B. die Aufnahme von
Inhomogenitäten. Das Oktavius-Phantom der 2. Generation besteht aus
2 Phantomenteilen und wird über einen Verschlußmechanismus
verbunden.
Für die PQA-Messungen wird das 2D-Array in das Oktavius-Phantom
eingeschoben. Das Phantom mit dem 2D-Array wird auf der
Patientenliege
positioniert
und
mit
Hilfe
des
Laserpositionierungssystems auf die wünschte Position hin ausgerichtet.
Nach der Bestrahlung werden mit Verisoft (Vers 4.0, PTW-Freiburg) die
Messdaten mit vorher berechneten Dosiswerten aus dem
Bestrahlungsplanungssystem über eine Gamma-Analyse verglichen.
Bei den Messungen mit der Ionisationskammer wird das Elektrometer
Unidos (PTW, Freiburg) verwendet. Es wurde an 4 Stellen einer
heterogenen Standarddosisverteilung mit den Ionisationskammern
gemessen.
Für die Filmmessung erfolgt zuerst eine Filmkalibration, dabei der Film
mit zwischen Dosiswerten von 0.25 bis 2.72 Gy in 11 Schritten bestrahlt.
Der kalibrierte Film wird zusammen mit den bestrahlten Filmen mit einen
Scanner (Epson 11000) gescannt. Die Auswertung geschieht mit der
Tomotherapy Analysis-Software in Form von Dosisprofilen und einer
Gamma-Analyse.
Die verwendeten Inhomogenitäten für den zweiten Einschub waren
Plexiglas, Gewebe, Lunge und Knochen.
Ergebnisse: Die Auswertung der Messungen mit dem 2D-array im
Lungenbereich zeigte eine geringe Verbesserung <2% zu den
Messungen mit dem Phantom der 1.Generation. Die geringsten
Abweichungen bei den Messungen mit Inhomogenitäten gab es bei der
Anordnung (Gewebe, Lunge und Knochen). Dort lagen Verbesserungen
lagen zwischen bei ca. 0.5 % sonst bei ca. 3% im Vergleich zu den
Messungen mit dem Oktavius-Phantom der 1.Generation.
Die Abweichungen an den vier Messpunkten zwischen den gemessenen
und berechneten Messwerten bei den Ionisationskammermessungen
betrugen bis zu 6%, da eine genaue Ortsbestimmung innerhalb der
IMRT-Dosisverteilung sich als schwierig erwies.
Die Messungen mit dem Film zeigten eine Abweichung von etwa 10% im
Hochdosisbereich.
Schlussfolgerung: Zusammenfassend lässt sich sagen, dass der
Einsatzmöglichkeit des 2D-array seven29 mit dem Oktavius- Phantom
der 2. Generation in der PQA der helikalen IMRT geeignet ist. Mittels der
durchgeführten Messungen zeigte sich eine Verbesserung hinsichtlich
der Messung mit dem 2D-array.
Bei der Verifikation von Bestrahlungsplänen im Lungen- und
Kopfhalsbereich (große Kavitäten) treten immer noch Dosisverifikation
mit Abweichungen über 5% auf. Die Ursache für diese Abweichungen ist
Gegenstand laufender Untersuchungen.
P10.18
Filmless pre-treatment verification on Helical Tomotherapy
C. Heine, T. Hauschild, S. Pönitz, T. Koch;
Praxis für Strahlentherapie und Radioonkologie, Sozialstiftung Bamberg
- MVZ am Bruderwald, Bamberg, Germany.
Introduction: Advanced techniques in radiotherapy like intensitymodulated radiotherapy (IMRT) with Helical Tomotherapy have the
potential to improve the conformity of dose distribution of the target while
sparing organ of risks from higher radiation doses.
Because of German requirements of the regulatory agencies it is
mandatory to measure a plan before the first treatment. For this reason it
was necessary to establish a method to get faster results in comparison
to a film based DQA in two-dimensional (2D) plane. This demands for
pre-treatment verification measurements a fast, precise and stable
method to verify the three-dimensional (3D) dose distribution.
Material and Methods: In April 2009 we realised the first steps with the
4
Delta from Scandidos and in July 2010 with the ArcCHECK from Sun
4
Nuclear. Since June 2009 we use for our DQA measurements the Delta
and since September 2010 the ArcCHECK in clinical practice. We
implanted both systems on the TomoThearpy™ HiArt™ unit for our
typical DQA measurements from treatment plans. These are typical
diseases like prostate cancer, head and neck tumours, multiple bone
metastases, breast cancer and additional stereotactic body radiation
therapy (SBRT). Till today we have realized over 600 DQA
4
measurements on the Tomotherapy unit (over 450 with the Delta and
over 150 with the ArcCHECK).
Results and Discussion: For establishing a QA-Plan for these systems,
there is no difference in time than for any other system. Planning and
transfer needs a short time.
4
The accomplishment of the DQA with the Delta and the ArcCHECK on
the Tomotherapy unit is easy and fast performed. After the
measurements the results are directly available.
In all cases it is possible to achieve accurate results of more than 95 %
measurement points in the 3mm/3% gamma-criterion (Gamma-Index). In
order to avoid larger deviation, it is recommendable to realize a
measurement of the daily output constancy of the Tomotherapy unit
before.
131
Conclusion: The filmless 3D-dosimetric verification from treatment
4
plans on TomoTherapy™ HiArt™ it easily performed with Delta and
ArcCHECK. It is possible to get accurate DQA measurements and
results in a short time.
P10.19
Flattening filter-free beams for extreme hypofractionated
radiotherapy of localized prostate cancer
1
1
1
1
1
S. Lang , G. Studer , K. Zaugg , S. Klöck , U. M. Lütolf , D. R.
1,2
Zwahlen ;
1
2
University Hospital Zürich, Zürich, Switzerland, Kantonsspital
Graubünden, Chur, Switzerland.
Background: We tested the ability to approximate the dose of 38Gy in 4
fractions and distribution of flattening filter-free (FFF) photon beams for
prostate cancer with TrueBeam® linear accelerator stereotactic body
radiotherapy (SBRT) plans. First observations of FFF SBRT planning
study are reported.
Material and methods: Treatment planning study was performed on CT
scans of 7 patients with localized carcinoma of prostate using 10MV FFF
photon beams (X10FFF) of TrueBeam® linear accelerator (Varian
Medical Systems). Planning target volume (PTV) included the prostate
and base of seminal vesicles defined by MRI and CT imaging, plus a
2mm volume expansion in all directions, except posterior, where the
prostate abutted the rectum and expansion was reduced to zero. Urethra
and rectum were identified on MRI and CT imaging and delineated on
CT where PTV was present only. Volumetric intensity modulated arc
therapy (VMAT) plans were prepared in Eclipse treatment planning
system (PRO 8.9, AAA 8.9). The prescribed dose (PD) was 4 x 9.5Gy =
38Gy. PTV coverage was 95% of PD, allowing maximum dose of 200%
of PD. Maximum dose (Dmax) for organs at risk (OAR) including rectum
and rectal mucosa was 100% and 75%, for urethra and bladder 120% of
PD, respectively. Two 360° arcs with maximum dose rate of 2400
monitor units (MU)/min were used. Plans were normalized to Dmax.
Number of MU, treatment delivery time, dose parameter for PTV
coverage and dose to OAR were recorded.
Results: Prescription isodose was 74.8-81.0%. PTV coverage, urethra,
rectum and bladder statistics are shown below:
PTV V100 (%)
PTV D90 (Gy)
Urethra Dmax (Gy)
D10 Urethra (Gy)
D50 Urethra (Gy)
Rectum
Rectal mucosa Dmax (Gy)
Rectal mucosa D1 (Gy)
Rectal mucosa D10 (Gy)
Rectal mucosa D25 (Gy)
Bladder
Bladder Dmax (Gy)
132
On average 3677MU ± 542 were used and maximum dose rate was
1462 - 2400MU/min. Average dose rate was 1961MU/min ±468.
Treatment delivery time for all patients was 2min.
Conclusion
Non-invasive FFF SBRT is feasible and dose constraints for PTV
coverage and OAR are met. Homogeneous target coverage is achieved
while sparing urethra and rectum. FFF SBRT for localized prostate
cancer allows fast and safe delivery of extreme hypofractionated RT and
minimizing impact of organ motion.
Mean ± 1 Standard Deviation
97.72 ± 0.16
39.15 ± 0.13
41.42 ± 1.07
40.47 ± 0.81
39.71 ± 0.78
9.04 ± 1.50
28.95 ± 1.07
27.47 ± 0.98
21.99 ± 1.15
14.77 ± 2.31
3.34 ± 1.51
35.92 ± 2.39
P10.20
Early clinical experience with hypofractionated volumetric arc
radiotherapy of lung tumors using flattening filter free (FFF) beams
at maximum dose rate
1
1
1,2
1
1
1
S. Lang , S. Graydon , J. Hrbacek , A. Tini , F. Cavelaars , C. Winter ,
1
1
1
1
S. Klöck , G. Studer , U. M. Lütolf , O. Riesterer ;
1
2
University Hospital Zürich, Zürich, Switzerland, Paul Scherrer Institute,
Center for Proton Therapy, Villingen, Switzerland.
Background: We recently reported on the commissioning of a novel
flattening filter-free (FFF) linear accelerator (Hrbacek et al IJROBP). FFF
technology is thought to improve hypofractionated radiotherapy due to
shortening of treatment time and lowering of unwanted dose outside the
treatment volume. However concern exists with regard to potential
toxicity of using unprecedented high doses per pulse. Here we report on
the first clinical experience using FFF beams at maximum dose rate for
hypofractionated radiotherapy of lung tumors at the University Hospital
Zurich.
Material and Methods: Patients were subjected to volumetric arc
radiotherapy using 6 MV FFF beams and allowing the maximum dose
rate of 1400 MU/min at the TrueBeam LINAC (Varian Medical Systems,
Palo Alto, CA, USA). Patients were immobilized in a Vac bag (CIVCO)
and tumour delineation was performed on 4D CTs by definition of an
internal target volume. Plans were optimized (Eclipse TPS, PRO 8.9) to
produce dose distributions that meet the criteria defined by RTOG 0915
protocol . Treatment and beam-on times were recorded and
patient/target shifts were assessed by pre- and post-treatment Cone
Beam CT (CBCT) imaging.
Results: 8 Patients with lung tumours (primary (2), recurrent (1)
metastatic (5) were treated with doses of 5-10 Gy in 3-10 fractions and
using 1-3 arcs. In 1 patient a tumour was treated in the remaining lung
after pneumonectomy. Altogether 11 lung PTVs were irradiated. The
PTV size ranged from 5.9 cc to 64.0 cc. The average dose rate per
patient used by the optimizer and given during 1-3 arcs ranged from 905
MU/min to 1389 MU/min. The average beam-on times was 1.7 min (+/0.5 min) and ranged from 1.1 min to 2.2 min, mean overall treatment
times including patient set-up and CBCT was 18.6 min (+/- 5.8 min). The
average vector of the patient and target shifts during treatment were 1.2
mm (+/-0.7 mm) and 1.5 mm (+/- 1.1 mm). At a medium follow up of 4
months (1-7) no unexpected early toxicity occurred.
Conclusion: Our early clinical experience indicates that the use of 6FFF
beams at maximum dose rate is efficient, results in stable patient
positioning during treatment and so far no unexpected acute toxicity has
been observed.
AUTORENINDEX
A
Abdelhamid, R.: P04.06, P06.08
Abdollahi, A.: 12.1
Abolmaali, N.: P04.02
Ackermann, B.: P08.05
Ahmed, G.: 22.4
Aiginger, J.: P02.05, P04.04
Akhtaruzzaman, M.: 27.4
Akselrod, M.: 12.1
Albers, D.: 06.1
Albrich, D.: 16.4
Alex, A.: 17.4, 18.4
Alheit, H.: P10.02
Allinger, K.: P08.16
Alsner, J.: P08.17
Ammazzalorso, F.: P08.12
Amsüss, S.: 26.08
Andersen, C. E.: P08.04, P09.15
André, L.: 09.10
Andreas, M.: P01.04
Andreeff, M.: 05.7, P04.03
Antweiler, G.: 24.2
Appelt, D.: 18.5
Ardjo Pawiro, S.: P02.06
Arndt, S.: 07.4
Aschendorff, A.: 07.4
Assmann, W.: P03.04, P08.15
Astner, S.: P10.04
Azhari, H. A.: 27.4
B
Bacher, K.: P05.01
Bachert, P.: 23.4, 24.2
Bader, M.: P03.04
Bähr, M.: P10.11
Balzer, B.: 25.3
Bamberg, M.: 06.6, P09.10
Bankstahl, J. P.: 14.4
Bankstahl, M.: 14.4
Bardiès, M.: P05.01
Barrois, V. M.: 16.6, P10.01
Barth, M.: 19.4
Bassler, N.: 08.6, P08.02, P08.17
Batra, M.: 20.1
Bauer, J.: 12.4
Bauer, R.: P09.09
Bauman, G.: 24.6
Baumann, M.: 11.4, P08.14
Baumann, U.: 07.5
Baus, W.: P09.18
Beck, R.: 07.4
Becker, J.: 03.3
Becker, S.: 09.4, P02.02, P03.01
Behe, M.: 14.3
Bender, B.: 20.1
Berberat, J.: 24.5
Berg, A.: 20.7, 24.7, P01.02
Berg, D.: 23.3
Berger, M.: 24.2
Berger, S.: 24.7
Bergmann, H.: 03.6, 13.7, 22.6, P02.06
Besserer, J.: 02.5, P04.08
Beyreuther, E.: P08.14
Bhatia, A.: 02.7, 03.4
Bheim, K.: A.10
Bienert-Zeit, A.: P02.01
Bin, J.: P08.16
Binder, S.: 18.3, P03.06
Birkfellner, W.: 03.5, 03.6, 04.4, 21.3,
P02.06, P06.02, P06.02
Bitz, A. K.: 19.3
Blaickner, M.: 08.6, 22.3
Blank, E.: P09.14
Blank, H.: 02.6, P10.02
Bloch, C.: 03.6
Block, A.: 05.5, 09.8, P04.06, P06.08,
P09.09
Block, K. T.: 24.6
Böck, H.: 08.6
Boesch, C.: 23.2
Böhm, C.: P04.01
Böhme, H.-J.: P04.02
Bonesi, M.: 18.1, 18.2
Borgosano, F.: 24.2
Borlak, J.: P04.01
Born, E. J.: 16.5, P08.07, P10.08
Bornemann, C.: P07.04, P10.16
Borowski, M.: 05.4, 05.5, 15.4
Bosold, S.: P10.01
Botas, P.: P08.02
Böttcher, I.: 18.3
Boubela, R. N.: P01.01, P01.03, P03.03
Boxheimer, L.: 24.5
Breithaupt, M.: P09.06
Brendel, B.: 20.1
Brettner-Messler, R.: 13.6
Brix, G.: P04.05, P05.02
Bröer, J. H.: P05.01
Brons, S.: 11.5, P08.03, P08.05
Bruggmoser, G.: 08.1
Brunner, C. C.: 04.2
Brünner, H.: 17.3
Brunner, S. E.: 22.4
Buchhalt, G.: 13.6
Buchholz, J.: A.08
Büermann, L.: 15.4
Buljubasich, L.: 23.5
Burris-Mog, T.: P08.14
Bussmann, M.: 11.4
Buzug, T. M.: 09.4, 21.4, 22.5, P02.02,
P03.01
Duma, M. N.: P06.03, P10.04
Dunst, J.: 06.7
C
Caffaro, M.: P10.16
Calle, C.: 06.4
Catic, J.: A.08
Cavelaars, F.: P10.20
Charwat, V.: 26.05
Chaudhri, N.: P08.05
Chofor, N.: 08.3
Church, C. J.: 07.3
Claußnitzer, J.: 05.7
Clivio, A.: 16.1, P07.01, P07.02, P10.09
Combs, S.: 12.4
Cordini, D.: P08.10
Cowan, T.: 11.4
Cozzi, L.: 06.4, 16.1, P07.01, P07.02,
P10.09
Cremers, F.: 02.2, 06.1
Currell, F.: P08.17
Czarnecki, D.: 09.7, 16.6
D
Dammene, Y.: P08.14
Danner, S. M.: 26.04
Danova, D.: P04.07
Danzebrink, H.-U.: 15.4
Datzmann, G.: 12.7
Dau, T.: A.08
Davulcu, I.: 20.6
Debus, J.: 09.5, 09.9, 12.1, 12.3, 12.4
Dechent, J. F.: 23.5
Denysenkov, V.: 23.6
Dersch, U.: 11.4
Deutschmann, H.: 02.3, 02.4, 03.7, 04.6,
04.7, P10.07
Dieckmann, K.: 01.3
Diehl, S. J.: 09.3
Dillier, N.: A.04
Dinkel, J.: 24.6
Diogo, I.: 15.7
Distler, J.: P10.02
Ditto, M.: 13.6
Dobler, B.: P06.06, P10.05
Dobrozemsky, G.: 13.7, 22.6
Domke, T.: 12.7
Dörner, K.-J.: P09.03
Dreindl, R.: 08.8
Drexler, W.: 17.4, 18.3, 18.4
Dudczak, R.: 22.6
133
E
Eberlein, U.: P05.01
Eble, M. J.: P07.04, P10.16
Ecker, S.: P08.05
Egli, P.: P05.03
El Khayati, N.: P07.03
Ellerbrock, M.: 12.3, P08.05
Ematinger, J.: 02.4
Engelhard, R.: 18.3
Engenhart-Cabillic, R.: 11.3, P08.12,
P10.01
Enghardt, W.: 04.4, 11.4, 11.6, 12.5,
P04.02, P08.14
Ensminger, S.: P09.06
Eppig, T.: P05.08
Erb, M.: 20.1
Erbeck, I.: 25.5
Ertl, P.: 26.05
Escobar Corral, N.: P07.04, P10.16
Esmaeelpour, M.: 18.3
F
Fabri, D.: 03.5
Farrag, A.: P04.06, P06.08
Fässler, C.: P05.03
Fastl, H.: 07.5
Fauler, A.: 22.1
Fechtig, D.: P02.05
Fedrigo, M.: 03.3
Fehlauer, F.: 16.2, P09.12
Feix, T.: 26.02
Feldmann, J.: 05.4
Feltes, M.: P05.05
Fiebich, M.: 15.6, 15.7, P04.07
Fiederle, M.: 22.1
Fiedler, F.: 04.4, 11.4, 11.6, 12.5
Figl, M.: 03.4, 03.6, 13.7, P02.06
Filzmoser, P.: P01.01, P01.03, P03.03
Fix, M. K.: 04.3, 16.5, 16.7, 22.2, P08.07
Flitsch, R.: 01.4, P09.19
Fogliata, A.: 16.1, P07.01, P07.02, P10.09
Fotina, I.: 01.6
Fouassi, R.: P10.17
Fränzel, W.: P03.05
Frauchiger, D.: 16.7
Frei, D.: 04.3, 16.5, 16.7, P08.07
Frenzel, T.: 02.2, 06.1
Freudenberg, R.: 05.7
Fridrich, L.: 13.6
Friedrich, J.: 24.1, 24.3
Friedrich, M.-E.: P03.03
Furtado, H.: 03.6
G
Gaisberger, C.: 02.3, P10.07
Garbe, S.: P10.17
Gast, K.: 24.3
Geinitz, H.: P10.04
Gendrin, C.: 03.6, P02.06
Georg, D.: 01.3, 01.6, 01.7, 03.5, 03.6,
04.4, 08.8, 11.6, 12.5, 12.6, 16.4, 22.6,
P02.06, P06.02, P06.05, P08.08
Georg, P.: P06.02
Gerald, M.: P02.03
Gerlach, R.: P03.05, P07.05, P09.06,
P09.16
Gerz, K.: 23.6
Geworski, L.: P05.04
Geyer, P.: 02.6
Gföhler, M.: 26.06
Gillmann, C.: 12.3, P08.06
Glatting, G.: 13.4, P04.03
Glessmer, S.: 16.2, P09.12
Glittenberg, C.: 17.4
Goebbels, J.: 15.4
Göke, B.: P03.04
Goldner, G.: P06.02, P06.05
Goldschmied, G.: 13.6
Gora, J. G.: P08.08
Göschl, R.: 13.6
Götting, N.: 06.7
Götzinger, E.: 18.1, 18.2
Goupell, M.: 10.6
134
Graafen, D.: 24.4
Gräf, S.: P08.12
Granegger, M.: 26.03
Granja, C.: P08.03, P08.15
Graydon, S.: P10.20
Greifeneder, G.: 13.6
Greilich, S.: 12.1, 12.3, P08.02, P08.04,
P08.06, P09.15
Griebel, J.: P04.05, P05.02
Grimm, R.: 24.6
Gröger, A.: 23.3
Grohmann, C.: 02.2, 06.1
Groß, V.: 25.3
Gruber, L.: 22.4
Grübling, P.: 11.3
Grüner, F.: 25.6
Grunewald, C.: 08.6
Gruy, B.: 13.6
Gueldner, M.: 24.3
Güldner, C.: 15.6, 15.7
Gutberlet, M.: 20.5
H
Haak, H.: P09.03
Haase, R.: P04.02
Haberer, T.: 12.4
Habl, G.: 09.5
Hahn, C. M.: P05.02
Hahn, D.: 20.5
Hainisch, R.: 26.06
Hälg, R. A.: 02.5
Hamacher, V.: 10.3
Hamer, J.: 21.4, 24.4
Hampel, G.: 08.6
Hansen, D. C.: P08.02
Harder, D.: 08.3, 08.4, P09.01, P09.07
Hartinger, B.: P01.03
Hartmann, B.: P08.03
Hartmann, G.: 08.7
Hartmann, M.: P04.08
Hauffe, J.: 12.7
Hauschild, T.: 02.1, P10.18
Havlik, E.: 13.6
Heeg, P.: P08.05
Heilemann, G.: P10.10
Heine, C.: 02.1, P09.08, P10.18
Heinrichs, U.: P10.16
Heintzmann, R.: 18.5
Helmbrecht, S.: 04.4, 12.5
Henke, M.: P10.03
Henkel, T.: 09.1
Henkner, K.: P08.05
Henzen, D.: 16.5
Herberth, F.: P10.15
Herfarth, K.: 09.5, 12.4
Hermann, B.: 18.4
Hesse, B.: P08.03
Hesser, J.: 09.3
Hetz, T.: 09.9
Heufelder, J.: P08.10, P08.13
Heverhagen, J. T.: P04.07
Hielscher, R.: 06.3, P10.12, P10.13, P10.14
Hiermayer, B.: A.10
Hillbrand, M.: 12.7
Hilz, P.: P08.16
Hinterreiter, M.: 13.6
Hintze, C.: 24.6
Hipp, M.: P10.05
Hirtl, A.: 13.7, 22.4, 22.6
Hitzenberger, C.: 18.1, 18.2
Hoegele, W.: P06.06
Hoeschen, C.: 03.3, 04.2, 05.3, 13.3, 15.5,
25.6
Hoevels, M.: P09.18
Hofer, B.: 17.4, 18.3, 18.4
Hoffmann, P.: 26.09
Hoffmann, R.: 02.7, 03.4
Hoffmann, W.: P05.06
Hofinger, J.: P06.07
Hofstätter, J. G.: 26.10
Hohmann,, V.: A.07
Holzmannhofer, J.: 13.6
Holzscheiter, M. H.: 08.6, P08.17
Homolka, P.: 15.3
Höpfel, D.: 24.2
Hopfgartner, J.: 01.3, 01.6, 11.6, 12.6
Horn, C.: 24.7, P01.02
Hrbacek, J.: 01.5, 06.4, P10.20
Huber, L.: P08.03
Huber, S.: 02.3, 04.6, P10.07
Huber, W.: 05.6
Huf, W.: P01.01, P01.03, P03.03
Humble, N.: P08.16
Hummel, J.: 02.7, 03.4, 15.3
Hummer, A.: 20.3
Hünemohr, N.: P08.06
Hunsche, S.: P09.18
Hüpf, T.: P09.19
Hutzel, H.: 09.6
I
Ide, K.: 06.1
Isaak, B.: 16.7
J
Jäkel, O.: 09.9, 11.5, 12.1, 12.3, P08.02,
P08.03, P08.04, P08.05, P08.06, P09.15
Jakse, G.: 01.4
Jakubek, J.: P08.03
Janich, M.: P07.05, P09.06, P09.16
Jankovec, M.: 22.4
Janzen, T.: 13.3
Jelen, U.: P08.12
Jeub, M.: A.05
Johst, S.: 19.3
Joksch, M.: 26.05
Juras, V.: P01.02
K
Kaar, M.: 02.7, 03.4
Kahmann, F.: 09.1
Kalcher, K.: P01.01, P01.03, P03.03
Kaldarar, H.: 15.3
Kampfer, S.: P06.03, P10.04
Kapp, K.: 01.4, P09.19
Kareem, R. H.: P05.05
Karger, C. P.: 09.5, 12.3
Karle, B.: P08.13
Karpuk, S.: 24.3
Karsch, L.: P08.14
Kasch, K.-. U.: 09.1
Kasper, S.: 20.3, P01.01, P01.03, P03.03
Kaulich, T. W.: 06.6, P09.10
Kavanaugh, J. N.: P08.17
Kellner, D.: P08.11
Kendall, C.: 17.4
Kerber, S.: A.09
Khalifa, A.: P04.06, P06.08
Kiefer, D.: P08.16
Kienast, R.: 26.11
Kiessling, F.: P04.05
Kimmig, B.: 06.7
Kinkel, M.: 10.2, A.03
Klaushofer, K.: 26.10
Klein, F. A.: P08.04
Kleine, M.: 21.4
Kletting, P.: 13.4, P04.03
Klingebiel, M.: P08.01
Klöck, S.: 01.5, 06.4, 09.10, P10.19, P10.20
Klösch, B.: 26.05
Klose, U.: 20.1, 23.3
Klüter, S.: 06.2
Knäusl, B.: 01.3, 13.7, 22.6
Kneisel, V.: 06.7
Kneisz, L.: 26.07
Kneschaurek, P.: P06.03, P10.04
Knoll, P.: 22.4
Knopf, A.-C.: P08.09
Koch, T.: 02.1, P09.08, P10.18
Koehler, U.: 25.3
Koelbl, O.: P06.06
Kohler, G.: P09.13
Kolb, R.: 23.3
Kölbl, O.: P10.05
Kollmann, C.: 04.5
Kollmeier, B.: 10.1
König, F.: 13.6, P04.04
Konrad, T.: 01.4
Kopp, P.: 02.3, P10.07
Köstler, H.: 20.5
Kotzerke, J.: 05.7, P04.03
Kraff, O.: 19.3
Kraft, S.: P08.14
Kragl, G.: 01.7, 16.4
Kranzl, A.: 26.06
Kraus, C.: 20.3
Kreienfeld, H.: 05.4, 15.4
Kreitner, K.-F.: 20.6
Krejci, F.: P08.15
Krieger, T.: 09.6
Kriegl, R.: P01.04
Krogbeumker, B.: P02.01
Kröger, S.: 07.4
Kroll, F.: P08.14
Krüger, M.: P09.14
Krummenacker, J.: 23.6
Krumrey, M.: 15.4
Kuess, P.: 04.4, 12.5
Kuhlmann, H.: P02.05
Kuntner, C.: 14.4, 21.3
Kunz, M.: P08.01, P09.04
L
Laback, B.: 07.1, 10.6, A.02
Lachmund, J.: P05.06
Ladd, M. E.: 19.3
Ladd, S.: 19.3
Lämmler, C.: 06.5
Lampret, A.: 02.7
Lang, S.: 01.5, 06.4, P10.19, P10.20
Lange, F.: P07.05
Langenbucher, A.: 17.3, P05.08
Langer, O.: 14.4, 21.3
Lanzenberger, R.: 20.3
Lanzolla, I.: P05.03
Laschinsky, L.: P08.14
Lassmann, M.: P05.01
Laszig, R.: 07.4
Latzel, H.: P09.15
Laub, W.: P10.10
Lauenstein, T. C.: 19.3
Layer, T.: 22.3
Lechner, W.: 01.7, P04.04
Leitgeb, R.: 18.2
Leitha, T.: P04.04
Lenz, J.: 09.8
Lessmann, E.: P08.14
Lewe-Schlosser, P.: 06.5
Li, W.: 13.3
Liebmann, M.: P05.05
Lissner, S.: 06.2
Lllmann, H.: A.05
Lodron, G.: 01.4
Loeschel, R.: P06.06
Lomax, A.: P08.09
Looe, H.: 08.4, P06.04, P09.01, P09.07
Lösch, R.: P06.01
Lotze, S.: P07.04
Luebke, J.: 22.1
Luepke, M.: 05.4
Lüllau, T.: P05.05
Lüpke, M.: P04.01
Luster, M.: 13.4
Lütgendorf-Caucig, C.: 01.3
Lütolf, U. M.: P10.19, P10.20
Lutters, G.: 24.5
Luyken, K.: P09.18
M
Ma, W.: P08.16
Maaß, T.: 16.2, P09.12
Maderwald, S.: 19.3
Magalhaes, E.: 01.7
Mainka, C.: 09.9
Mair, A.: 10.4
Mair, K.: P05.07
Majdak, P.: 07.1, 10.6, A.02
Malthaner, M.: P10.08
Mancuso, P.: 06.4
Mang, A.: 09.4, P02.02, P03.01
Manser, P.: 04.3, 16.5, 16.7, 22.2, P08.07
Markelj, P.: P02.06
Martisikova, M.: P08.03
Marton, J.: 22.4
Matthias, B.: P02.03
Matthias, K.: P04.06
Matz, G.: 22.3
Mayer, H.: 01.4
Mayr, W.: 26.09
McCartney, D. A.: 07.3
Melzig, C.: 12.1
Merla, K.: P10.06
Merz, F.: 02.3, P10.07
Metzkes, J.: P08.14
Misslbeck, M.: 16.3
Mitterlechner, B.: 02.3, 04.6, P10.07
Mix, M.: 14.3, 22.1
Modregger, P.: 22.2
Mooslechner, M.: 02.3, 04.6, 04.7, P10.07
Morales, F.: 27.2
Moscato, F.: 25.4, 26.03
Moser, E.: 20.3, 20.4, P01.01, P01.03,
P01.04, P03.03
Moser, T.: 09.5
Müdder, T.: P10.17
Muellauer, J.: 14.4, 21.3
Mueller, L. A.: P03.02
Mueller, M.: 21.3
Mueller, M. F.: A.04
Müller, A.: 11.6
Müller, B.: 12.7, 25.6
Müller, C.: P09.12
Müller, J.: P08.13
Münnemann, K.: 23.5
Münzing, W.: 13.5
N
Nairz, O.: P08.05
Nassar, H.: P07.03
Nassenstein, K.: 19.3
Naumann, J.: P08.05
Naumburger, D.: P08.14
Nekolla, E. A.: P05.02
Neuenschwander, H.: 16.5
Neuner, M.: 03.7
Neuschaefer-Rube, U.: 15.4
Neuwirth, J.: P03.06
Nicoletti, R.: 13.6
Nicolini, G.: 16.1, P07.01, P07.02, P10.09
Niklas, M.: 12.1
Ningo, A.: 15.6, 15.7
Noel, P.: 15.5, P04.07
Nosske, D.: P05.01
Nounga Kamwa, K.: P02.04
O
Oechs, A.: P09.19
Oeh, U.: 13.3
Oehme, L.: 05.7
Ohnesorge, B.: P02.01
Oppelt, M.: P08.14
Orzada, S.: 19.3
Overhoff, H.: 25.5, P02.04, P02.07
P
Pahr, D. H.: 26.01
Pail, G.: P01.01, P01.03, P03.03
Palmans, H.: 08.6
Pandy, M. G.: 26.06
Panse, R.: 11.5
Parczyk, M.: 08.5
Parodi, K.: 11.5, 12.4
Paul, K. C.: 27.4
Pawelke, J.: 11.4, P08.14
Pawiro, S. A.: 03.6
Pehamberger, H.: 17.4
Pemmer, B.: 26.10
Pensold, S.: P10.06
Pereira do Vale, P.: P09.17
Pernus, F.: P02.06
Perrin, R.: 11.4
Peter, S.: 22.2
Pethke, W.: 05.5
Pezawas, L.: P01.01, P01.03, P03.03
Pfäfflin, A.: 09.10
Pfenning, P.-N.: P02.02
Pica, A.: P10.08
Pieck, S.: 11.4
Pietrzyk, U.: 14.3
Pircher, M.: 18.1, 18.2
Poelstra, A.: 25.5, P02.04, P02.07
Pok, S.-M.: A.10
Polivka, B.: P05.07
Poljanc, K.: P04.04
Pönitz, S.: 02.1, P10.18
Poppe, B.: 05.4, 08.2, 08.3, 08.4, P05.05,
P06.04, P09.01, P09.03, P09.07, P10.10
Považay, B.: 17.4, 18.3, 18.4
Prank, K.: 05.5
Prisner, T. F.: 23.6
Procz, S.: 22.1
Prokesch, H.: 16.4
Prokic, V.: P10.03
Puder, H.: A.06
Puderbach, M.: 24.6
Puxeu Vaque, J.: 06.4
R
Rader, T.: 07.5
Radtke, E.: 09.8
Rattay, F.: 26.04
Rausch, I.: 22.6
Ray, J.-Y.: 09.10
Reggiori, G.: 06.4
Reichenbach, J. R.: 20.2
Reinhardt, S.: P08.15, P08.16
Reisinger, A. G.: 26.01
Remonda, L.: 24.5
Renger, B.: 04.2, 15.5
Rentrop, T.: 23.4
Reske, S. N.: 13.4, P04.03
Rhein, B.: 08.7
Richter, A.: 04.1
Richter, C.: P08.14
Riesterer, O.: P10.20
Rinaldi, I.: 11.5
Rivoire, J.: 24.1, 24.3
Rodt, T.: P04.01
Roehrbacher, F.: 14.4
Rogers, S.: 24.5
Rohn, R.: P06.08
Rommerscheid, J.: P05.06
Roschger, A.: 26.10
Roschger, P.: 26.10
Rummeny, E. J.: 15.5
S
Salehi Ravesh, M.: 24.6
Sanne, C.: P09.17
Santos, P.: P05.01
Sattel, T. F.: 22.5
Sauberer, M.: 14.4, 21.3
Sauer, O. A.: 04.1, 08.5
Sauerbrey, R.: 11.4
Sauerzapf, S.: 14.3
Saure, D.: 05.5
Schad, L.: 23.1
Schäfer, C.: P03.04
Schäfer, M.: 09.9
Schäfer, R.: 23.3
Schaffarich, M. P.: 13.7
Schaks, M.: P09.16
Scharinger, C.: P01.01, P01.03
Scheidegger, S.: P05.03
Schell, S.: 11.7
Schettino, G.: P08.17
Schiefer, H.: P10.15
Schild, C.: 07.4
Schilling, P.: P10.06
Schima, H.: 25.4, 26.03, P02.05
Schimmel, S.: A.04
Schirra, J.: P03.04
Schlattl, H.: 04.2, 05.3, 25.6
Schlegel, W.: 09.9
Schleich, P. K.: 10.5
135
Schlemmer, H.-P.: 24.6
Schlgel, M.: A.10
Schmachtenberg, A.: P10.16
Schmid, A. I.: P01.04
Schmidhalter, D.: P10.08
Schmidt, R.: 24.4
Schmidt, T.: P08.16
Schmiemann, S.: P02.07
Schmitt, B.: 23.4
Schmitt, R.: 09.6
Schmitz, T.: 08.6
Schnabel, J.: 03.2
Schneider, T.: 09.2
Schneider, U.: 02.5, P04.08
Schnurr, M.: 24.2
Schöller, H.: 02.3, P10.07
Scholtes, M.: 25.3
Scholz, M.: 12.3
Schölzel, D.: P09.17
Schöne, M.: P09.06
Schöpf, V.: P01.01
Schoroth, F.: P10.17
Schramm, U.: 11.4, P08.14
Schreiber, J.: P08.16
Schreiber, L. M.: 20.6, 23.5, 23.6, 24.1,
24.3, 24.4
Schroettner, T.: 14.4
Schubert, K.: 06.2, 09.5
Schüler, E.: P05.02
Schultze, J.: 06.7
Schürer, M.: 17.3, P08.14
Schuster, S. K.: 04.5
Schütz, C.: 08.6
Schütz, T. A.: 09.4, P02.02, P03.01
Scorsetti, M.: 06.4
Sedlmayer, F.: 02.3, 02.4, 03.7, 04.6, 04.7,
P10.07
Seeber, B. U.: 07.3, A.09
Seelentag, W.: P10.15
Seifert, H.: 05.4, P02.01, P04.01
Selbach, H.-J.: 09.2
Sellner, S.: P08.17
Semmler, W.: 24.6
Semturs, F.: 15.3
Sereinig, G.: P02.03
Sharpe, P.: 08.6
Siebert, F.-A.: 06.7
Siewert, C.: P02.01
Simiantonakis, I.: P09.17
Simmat, I.: P06.02
Simon, R.: 26.10
Singers Sørensen, B.: P08.17
Sinha, P.: 02.6
Skalsky, C.: 12.7
Sladky, R.: 20.3, 20.4
Sobiella, M.: P08.14
Söger, S.: P09.12
Sohrabi, K.: 25.3
Solle, A.: P05.04
Sommerer, F.: 12.4
Spaan, B.: 09.8
Sparenberg, J.: P10.01
Speck, A.: P05.08
Spiess, H. W.: 23.5
Sroka, R.: P03.04
Sroka-Perez, G.: 09.5
Stäb, D.: 20.5
Stahl, A.: P07.04
Stamm, G.: P04.01
Stampanoni, M.: 22.2
Stanek, J.: 14.4, 21.3
Stapf, S.: P09.14
Stark, R.: P08.10, P08.13
Staszyk, C.: P02.01
Stegmaier, P.: P10.03
Steinberg, F.: P05.06
Steiner, E.: P06.05
Steininger, P.: 02.3, 02.4, 03.7
Steininger, T.: 01.6
Stelljes, T. N.: P09.01
Stelljes, T. S.: 08.4
Stemberger, A.: 05.6, P03.06
Stief, C.: P03.04
136
Stock, M.: 03.6, 08.8, 12.6, P02.06, P06.02,
P06.05, P08.08
Stollberger, R.: 19.1
Stone, N.: 17.4
Straße, T.: P08.17
Streli, C.: 26.10
Streller, T.: 01.5
Strumpf, A.: P04.03
Studer, G.: P10.19, P10.20
Suzuki, K.: 22.4
T
Tegami, S.: P08.17
Telsemeyer, J.: P08.03
Terekhov, M.: 23.6, 24.1, 24.3
Terribilini, D.: 16.7
Theilig, B.: P10.06
Thomas, L.: P02.03
Tini, A.: P10.20
Tischenko, O.: 03.3, 15.5
Toma, A.: 09.4, P02.02, P03.01
Torzicky, T.: 18.1, 18.2
Treitz, K.: P09.09
Treuer, H.: P09.18
Treutwein, M.: P10.05
Tröst, J.: 20.4
Tröstl, J.: 20.3
Tschakert, A.: 26.09
Tsitsekidis, S.: P09.10
Tsogtbaatar, L.: 06.5, P10.01
Tümmler, H.: P10.06
U
Ueltzhöffer, S.: 27.3
Uhl, M.: 09.5
Uhlig, C. H.: P05.05
Ul-Karim, Z.: 26.06
Umutlu, L.: 19.3
Unger, E.: 26.09
Unholtz, D.: 12.4
Uphoff, Y.: P06.04
Uray, M.: 01.4
V
Vaegler, S.: 04.1
van de Par, S.: A.01
Vandevoorde, C.: P05.01
Vanetti, E.: 16.1, P07.01, P07.02, P10.09
Vary, P.: A.05
Vockelmann, C.: P04.06
Vogelgesang, L.: 16.6, P10.01
Voigt, J. M.: 15.6, 15.7, P04.07
Volken, W.: 04.3, 16.5, 16.7, P08.07
von Boetticher, H.: 05.4, 27.2, P05.05,
P05.06
von Falck, C.: P04.01
von Voigts-Rhetz, P.: P09.04, P09.05
von Wallenberg, E.: 07.2
Vordermark, D.: P07.05, P09.16
Voss, B.: 11.5
W
Wachter, S.: P06.07
Wachter-Gerstner, N.: P06.07
Wacker, F.: P04.01
Wagner, A.: P03.04
Wagner, D. M.: 06.3, P10.12, P10.13,
P10.14
Waletzko, O.: P06.08
Walter, A.: 17.3
Wanek, T.: 14.4, 21.3
Warwitz, B.: 13.6
Weber, A.: P08.10, P08.13
Weber, C.: 03.6, P02.06
Weber, S.: 20.6, 24.4
Weber, U.: 11.3, P08.11
Weber, W.: 14.3
Weichenberger, H.: 02.4
Weichert, S.: P04.02
Weingast, J.: 17.4
Welzel, T.: 12.4
Wenzl, T.: 12.2
Werner, J. A.: 15.7
Werner, R.: 02.2, 06.1
Wesarg, T.: 07.4
Wetzel, F.: P10.11
Wick, W.: P02.02
Wicker, K.: 18.5
Wilbert, J.: 01.2, 09.6
Wilke, F.: P05.04
Wilkens, J. J.: 11.7, 12.2, P08.16
Willborn, K.: 08.3, P06.04
Willimayer, R.: 21.3
Willomitzer, C.: P09.14
Windischberger, C.: 19.2, 20.3, 20.4,
P01.01, P01.03, P03.03
Winkler, C.: P10.04
Winkler, P.: 01.4, P09.19
Winklinger, K.: 02.4
Winter, C.: P10.20
Winter, M.: P08.05
Wirrmann, C.: 25.4
Wirtz, H.: P10.16
Witt, M.: P08.11
Witteler, A.: P04.06
Wittig, A.: P08.12
Wolf, U.: 24.3
Wolff, D.: P10.01
Wolff, U.: 05.8
Wolzt, M.: P01.04
Wösle, M.: 09.3
Wrede, S.: 05.4, 05.5, 15.4
Wulff, J.: 09.7, 15.6, 16.6, P07.03, P09.02
Wust, P.: 09.1
Wyss, J.: 07.2
Z
Zakaria, G. A.: 27.4
Zakhnini, A.: 14.3
Zambrano, V.: 03.5
Zankl, M.: 05.3
Zaugg, K.: P10.19
Zeeb, B.: P09.11
Zeil, K.: P08.14
Zeller, M.: 20.5
Zelzer, B.: 17.3, P05.08
Zenklusen, S.: P08.09
Ziegner, M.: 08.6
Zink, K.: 06.5, 09.7, 11.3, 16.6, P07.03,
P08.01, P08.11, P08.12, P09.02, P09.04,
P09.05, P10.01, P10.17
Zips, D.: P04.02
Zlobinskaya, O.: P08.16
Zotter, S.: 18.1, 18.2
Zulliger, M. A.: 04.3
Zwahlen, D. R.: P10.19
Zwerger, A.: 22.1
Zwick, S.: P04.05
Zygmanski, P.: P06.06
Zysset, P. K.: 26.01