Navigation of the drilling capsule
Image and Language Processing, Computer Graphics and Visualisation, Human Computer Interaction, Ubiquitous and Wearable Computing
Final Report Abstract
In diesem Teilprojekt ist eine Software zur Navigation für die Multi-Port Knochenchirurgie an der Otobasis entstanden. Diese Software ist in die Planungsumgebung aus TP01 integriert und stellt die Anbindung an die Komponenten C-Bogen, elektromagnetischer Tracker, Bohrsystem und Planungstool sicher. Zur kontinuierlichen Erfassung der Instrumentenlage relativ zur Patientenanatomie werden zwei Sensoren (Roboter und Referenz) mit einem elektromagnetischen Sensorsystem aufgenommen. Diese Sensoren werden mit dazu entwickelten Abtastinstrumenten und Kalibrations- bzw. Registrierungsverfahren zum Instrument bzw. zur Patientenanatomie (Referenzvolumen) registriert, sodass die Instrumentenlage im Patientenkoordinatensystem (Referenz-KOS) bekannt ist. Mithilfe von drei Verfahren zur Instrumentenidentifikation auf Röntgenbildern wurde die Lage zylindrischer Instrumente bestimmt. Da die Ground-Truth-Lage der realen Position in physischen Phantomen nicht vermessen werden kann, wurden künstliche Röntgenbilder generiert, die zum Training und zur Evaluation der Verfahren verwendet wurden. Das Tracking mittels Convolutional Neural Networks erzielt Fehler kleiner als 1 Pixel und kleiner 1 Grad. Auf Basis der durch diese beiden Ansätze generierten Lage kann eine Bahnregelung stattfinden. Diese Bahnregelung führt eine Anpassung des Pfades durch und liefert eine Stellgröße basierend auf der aktuellen Lage des Instrumentes und des geplanten Pfades. Die Stellgröße wird über das OpenIGTLink-Protokoll an das Bohrsystem weitergegeben. Zusätzlich werden die aktuelle Lage, der angepasste Pfad und die aktuelle Soll-Orientierung gleichzeitig mit der Patientenanatomie angezeigt.