KI-basierte Entscheidungssysteme sind eine große Chance, um unsere Arbeitswelt in Zukunft effizienter zu machen. Welche Bewerber*innen sind geeignet für den Job, den eine Firma gerade ausschreibt? Welche Behandlung brauchen die Patient*innen im überfüllten Wartezimmer beim Hausarzt? Fragen, die KI auf Grundlage von vielen bekannten Daten künftig automatisiert beantworten könnte. Aber was, wenn dabei auch menschliche Vorurteile einfließen und unkontrolliert diskriminierende Entscheidungen treffen?
Eine dystopische Vorstellung, die der Juniorprofessor für Ethik in der Technologie an der Technischen Universität Hamburg Maximilian Kiener nicht zur Realität werden lassen werden möchte. Die Lösung: Schon jetzt nicht nur technische, sondern auch ethische Maßstäbe bei der Entwicklung von KI anzulegen.
Ethische Überlegungen von Anfang an in technologische Innovation einbeziehen
In seiner Antrittsvorlesung unter dem Titel „Ethics in Technology and the Future of Morality“, die an diesem Mittwoch im Rahmen der offenen Veranstaltungsreihe „Future Lectures“ im Audimax II stattfand, erklärte Kiener: So wie jedes Kind bereits von Beginn seines Lebens an den Unterschied zwischen richtig und falsch lerne, müsse dies auch von Beginn an in neue Technologien integriert werden – zum Beispiel durch das so genannte „Reinforcement Learning“, bei dem eine KI durch Feedback und bestimmte positiv bewertete Anreize lernt.
„Ethik ist dabei keine nur optionale, sondern eine unvermeidbare Komponente“, sagt Kiener. „Doch in dieser Unvermeidbarkeit liegt auch die Chance, Ethik und Technologie so zu verzahnen, dass Synergien einen gerechten und nachhaltigen Fortschritt schaffen.“
„ConsentGPT“ statt „ChatGPT“? Roboter könnten Patient*innengespräche übernehmen
Um in diesem Kontext aber auch den Menschen kontinuierlich einzubeziehen und sogenanntes „human oversight“ zu gewährleisten, wie es der EU AI Act nahelegt, schlägt Kiener ein neues Verantwortungsmodell vor. Indem alle, die in Entwicklungen und Gebrauch leistungsfähiger KI einbezogenen sind, sich kontinuierlich verpflichten, Rechenschaft über neue Entwicklungen abzulegen, soll ein offener gesellschaftlicher Dialog darüber möglich sein, welche Art von Technologien Menschen tatsächlich erschaffen wollen.
Ergänzt wurden Kieners Ausführungen von Beiträgen der Gastredner Prof. Dominic Wilkinson, der über den möglichen Einsatz von KI bei Beratungsgesprächen zwischen Ärzt*innen und Patient*innen vor Operationen – genannt „ConsentGPT“ – sprach, und einer moderierten Diskussion mit dem Publikum unter der Leitung von Dr. Andrew Graham (beide University of Oxford).
Über die „Future Lectures“-Reihe
In den öffentlichen „Future Lectures“ präsentieren Forschende der TU Hamburg ihre zukunftsgewandten Forschungsthemen und -ideen. Dabei soll zum einen erklärt werden, welche Herausforderungen auf Gesellschaft und Forschung zukommen, zum anderen aber auch, welche positiven Veränderungen die Forschung die TU Hamburg gesellschaftlich anstoßen könnte.
Mehr erfahren