Kurzfassung: Im Rahmen meines Masterstudiums Information Science an der Hochschule Darmstadt habe ich ein Projekt zur KI-gestützten Erkennung von Hautkrebs konzipiert. Die technische Umsetzung stand dabei nicht im Vordergrund. Entscheidend war vielmehr, was dieses Projekt über Verantwortung, Gestaltung und den realen Einsatz von KI im Gesundheitswesen sichtbar gemacht hat.
Information Science als Perspektive auf KI
Der Studiengang Information Science an der Hochschule Darmstadt verbindet technische Grundlagen mit Fragen der Nutzung, Wirkung und Verantwortung von Informationssystemen. Es geht nicht nur darum, ob ein System funktioniert, sondern darum, wie es in reale Kontexte eingebettet ist und welche Folgen sein Einsatz hat. Gerade bei KI wird deutlich, dass Technologie nie isoliert wirkt, sondern immer Teil eines größeren sozio-technischen Systems ist, in dem Menschen, Organisationen, Interfaces und Regeln zusammenwirken.
Dieses Verständnis hat das Projekt maßgeblich geprägt. KI wurde nicht als autonomes Entscheidungssystem gedacht, sondern als gestaltetes Werkzeug, dessen Wirkung sich erst im Zusammenspiel mit menschlicher Expertise und organisationalen Rahmenbedingungen entfaltet.
Das Projekt im Kern
Ziel des Projekts war die Konzeption einer App, die mithilfe eines trainierten neuronalen Netzes Hautläsionen analysiert und Dermatologen bei der Priorisierung von Verdachtsfällen unterstützt. Von Beginn an war klar, dass das System keine Diagnose stellen und keinen ärztlichen Entscheid ersetzen sollte. Es ging um Unterstützung, nicht um Automatisierung medizinischer Verantwortung.
Diese Abgrenzung war keine Einschränkung, sondern eine bewusste Voraussetzung für einen verantwortungsvollen Einsatz. Sie bestimmte sowohl die technische Auslegung als auch das spätere Interface-Design.
Wie das App-Konzept funktioniert
Die konzipierte App richtet sich nicht an Patientinnen oder Patienten, sondern an medizinisches Fachpersonal. Dermatologen können Bildmaterial von Hautläsionen erfassen oder bestehende Aufnahmen in das System einspeisen.
Ein trainiertes neuronales Netz analysiert diese Bilder und berechnet eine Wahrscheinlichkeit für auffällige Muster. Das Ergebnis wird nicht als Diagnose ausgegeben, sondern als Einschätzung mit klar gekennzeichneter Unsicherheit.
Ziel ist keine automatische Entscheidung, sondern eine Priorisierung von Fällen. Auffällige Befunde können schneller geprüft werden, unkritische Fälle bleiben sichtbar, ohne falsche Sicherheit zu erzeugen.
Das Interface ist bewusst so gestaltet, dass Wahrscheinlichkeiten, Hinweise und Grenzen des Systems transparent bleiben. Die ärztliche Entscheidung liegt jederzeit vollständig beim Menschen.
Assistenz statt Autonomie
Eine der wichtigsten Erkenntnisse aus dem Projekt war, dass KI im medizinischen Kontext immer assistiv gedacht werden muss. Auch wenn Modelle in der Lage sind, Muster zuverlässig zu erkennen, bleibt die Verantwortung für Entscheidungen beim Menschen. Diese Grenze ist nicht technisch erzwungen, sondern eine normative und gestalterische Entscheidung.
Das System wurde daher so konzipiert, dass es Hinweise liefert und priorisiert, ohne abschließende Aussagen zu treffen. Gerade diese bewusste Begrenzung erhöht die Anschlussfähigkeit an reale medizinische Praxis.
Schwellenwerte als ethische Frage
Eine zentrale Rolle spielte im Projekt die Festlegung von Wahrscheinlichkeitsgrenzen. Ab welchem Wert wird ein Befund als kritisch markiert. Schnell zeigte sich, dass diese Entscheidung keine rein technische Optimierung ist. Eine niedrigere Schwelle erhöht die Sensitivität, produziert aber mehr Fehlalarme. Eine höhere Schwelle reduziert Fehlalarme, erhöht jedoch das Risiko, relevante Fälle zu übersehen.
Die Entscheidung für eine bewusst vorsichtige Auslegung war letztlich eine ethische Abwägung. Sie verdeutlicht, dass KI-Systeme nicht neutral sind, sondern Werte und Prioritäten widerspiegeln, die im Design festgelegt werden.
Interface Design als Verantwortung
Ein weiterer zentraler Punkt war die Gestaltung der Benutzeroberfläche. Wie Ergebnisse dargestellt werden, beeinflusst maßgeblich, wie sie interpretiert werden. Farben, Hinweise und Kontextinformationen sind keine rein visuellen Details, sondern Teil der Entscheidungsarchitektur.
Das Interface wurde daher so gestaltet, dass Unsicherheiten sichtbar bleiben und Ergebnisse nicht als scheinbar objektive Wahrheiten präsentiert werden. Auch dies ist Teil medizinischer Verantwortung und wird in vielen KI-Diskussionen unterschätzt.
Von Machbarkeit zur Anwendung
Selbst wenn ein Modell technisch gut funktioniert, ist es weit von einem realen Einsatz entfernt. Regulatorische Anforderungen, Validierung, Haftungsfragen und organisatorische Einbettung sind zentrale Hürden, insbesondere im Gesundheitswesen. Das Projekt hat deutlich gemacht, dass funktionierende Modelle allein keine einsatzfähigen Systeme ergeben.
Der Weg von technischer Machbarkeit zur praktischen Anwendung ist weniger eine Frage der Algorithmen als eine Frage von Organisation, Regulierung und Verantwortung.
Fazit
Dieses Projekt hat mir weniger über neuronale Netze beigebracht als über den Charakter von KI im Gesundheitswesen. KI ist hier kein Produkt, sondern ein gestaltetes System mit klaren Grenzen und Verantwortlichkeiten. Gerade im medizinischen Kontext entsteht Qualität nicht durch maximale Automatisierung, sondern durch bewusste Begrenzung.
Genau darin liegt der eigentliche Wert solcher Projekte im Studium. Sie zeigen, dass gute KI nicht nur eine technische, sondern vor allem eine konzeptionelle und ethische Aufgabe ist.